V3.2-Speciale 模型數(shù)學(xué)能力亮眼。
多知12月2日消息,DeepSeek官方賬號(hào)12月1日發(fā)文宣布,發(fā)布兩個(gè)正式版模型:DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale。
官方網(wǎng)頁端、App 和 API 均已更新為正式版 DeepSeek-V3.2。Speciale 版本目前僅以臨時(shí) API 服務(wù)形式開放,以供社區(qū)評測與研究。
根據(jù)介紹,DeepSeek-V3.2 的目標(biāo)是平衡推理能力與輸出長度,適合日常使用,例如問答場景和通用 Agent 任務(wù)場景。在公開的推理類 Benchmark 測試中,DeepSeek-V3.2 達(dá)到了 GPT-5 的水平,僅略低于 Gemini-3.0-Pro;相比 Kimi-K2-Thinking,V3.2 的輸出長度大幅降低,顯著減少了計(jì)算開銷與用戶等待時(shí)間。

DeepSeek-V3.2 是DeepSeek推出的首個(gè)將思考融入工具使用的模型,并且同時(shí)支持思考模式與非思考模式的工具調(diào)用。
DeepSeek-V3.2-Speciale 的目標(biāo)是將開源模型的推理能力推向極致,探索模型能力的邊界。
V3.2-Speciale 是 DeepSeek-V3.2 的長思考增強(qiáng)版,同時(shí)結(jié)合了 DeepSeek-Math-V2 的定理證明能力。該模型具備出色的指令跟隨、嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)證明與邏輯驗(yàn)證能力,在主流推理基準(zhǔn)測試上的性能表現(xiàn)媲美 Gemini-3.0-Pro。
此外,V3.2-Speciale 模型獲得IMO 2025(國際數(shù)學(xué)奧林匹克)、CMO 2025(中國數(shù)學(xué)奧林匹克)、ICPC World Finals 2025(國際大學(xué)生程序設(shè)計(jì)競賽全球總決賽)及IOI 2025(國際信息學(xué)奧林匹克)金牌。其中,ICPC 與 IOI 成績分別達(dá)到了人類選手第二名與第十名的水平。
