DeepSeek V3.2系列正式版發(fā)布!推理能力追平GPT
12月1日消息,列正今日,式版DeepSeek發(fā)布兩個(gè)正式版模型,發(fā)布分別為DeepSeek-V3.2和DeepSeek-V3.2-Speciale,推理前者主打日常使用,追平后者在多項(xiàng)國際競賽中獲得金牌。列正
據(jù)介紹,式版DeepSeek-V3.2在公開的發(fā)布推理類Benchmark測試中達(dá)到GPT-5水平,僅略低于Gemini-3.0-Pro。推理
相比同類產(chǎn)品Kimi-K2-Thinking,追平V3.2輸出長度大幅降低,列正顯著減少了計(jì)算開銷與用戶等待時(shí)間。式版
DeepSeek-V3.2-Speciale目標(biāo)是發(fā)布將開源模型的推理能力推向極致,是推理DeepSeek-V3.2 的長思考增強(qiáng)版,同時(shí)結(jié)合DeepSeek-Math-V2的追平定理證明能力。
該模型在主流推理基準(zhǔn)測試上的性能表現(xiàn)媲美Gemini-3.0-Pro,并在IMO 2025(國際數(shù)學(xué)奧林匹克)、CMO 2025(中國數(shù)學(xué)奧林匹克)、IOI 2025(國際信息學(xué)奧林匹克)等四項(xiàng)國際頂級(jí)競賽中斬獲金牌。
其中,在ICPC與IOI成績分別達(dá)到人類選手第二名與第十名水平。
據(jù)了解,兩款模型均已在HuggingFace和ModelScope平臺(tái)開源。
V3.2-Speciale目前僅以臨時(shí)API形式開放至12月15日,供社區(qū)評(píng)測與研究使用。









