导语:网友认为 DeepSeek 此次发布是了不起的成就," 匹配 GPT-5 和 Gemini3 Pro 的开源模型出现了,差距正式消除。
12 月 1 日晚,DeepSeek 又上新了两款新模型,DeepSeek-V3.2 和 DeepSeek-V3.2-Speciale,在推理能力上全球领先。

两款模型有着不同的定位。DeepSeek-V3.2 的目标是平衡推理能力与输出长度,适合日常使用,例如问答场景和通用智能体任务场景。9 月底 DeepSeek 发布了实验版 V3.2-Exp,此次是正式版更新。在公开推理测试中,V3.2 达到了 GPT-5 的水平,仅略低于谷歌的 Gemini3 Pro。
DeepSeek-V3.2-Speciale 则是此次的重头戏,其目标是 " 将开源模型的推理能力推向极致,探索模型能力的边界 "。据介绍,Speciale 是 V3.2 的长思考增强版,同时结合了 DeepSeek-Math-V2 的定理证明能力,该模型具备出色的指令跟随、严谨的数学证明与逻辑验证能力。
据 DeepSeek 公布的数据,Speciale 在多个推理基准测试中超越谷歌最先进的 Gemini3 Pro。具体来看,在美国数学邀请赛、哈佛 MIT 数学竞赛、国际奥林匹克数学竞赛等测试中,V3.2-Speciale 都超过了 Gemini3 Pro,但在编程、理工科博士生测试中略逊于谷歌。

DeepSeek-V3.2 系列与其他模型在各类数学、代码与通用领域评测集上的得分(括号内为消耗 Tokens 总量约数)
同时,Speciale 模型斩获了IMO(国际数学奥林匹克)、ICPC World Finals(国际大学生程序设计竞赛全球总决赛)及 IOI(国际信息学奥林匹克)金牌。其中,ICPC 与 IOI 成绩分别达到了人类选手第二名与第十名的水平。
尽管取得了这些成就,但在技术报告中,DeepSeek 承认,与 Gemini3 Pro 等前沿闭源模型相比,自家模型仍存在一定的局限性。首先,V3.2 的世界知识广度仍落后于领先的专有模型,其次在令牌(Token)效率方面,V3.2 通常需要更多的令牌才能达到像 Gemini3 Pro 这样的模型输出质量。在解决复杂任务方面也不如前沿模型。
DeepSeek 称,团队计划在未来通过增加预训练计算量来填补知识空白,并专注于优化模型推理链的智能密度以提高效率,进一步改进基础模型和训练后方案。
值得一提的是,在技术报告中,DeepSeek 还谈到当前开源与闭源模型的差距在拉大。
DeepSeek 表示,推理模型的发布是大模型发展的关键转折点,推动了整体性能的大幅跃升。自这一里程碑事件以来,大模型能力在快速发展。然而,过去几个月中出现了明显的分化:尽管开源圈持续取得进步,但闭源专有模型如海外谷歌、OpenAI、Anthropic 的性能增长速度却显著更快。
" 闭源模型与开源模型之间的性能差距并未缩小,反而日益扩大,专有系统在复杂任务中展现出越来越强的优势。"DeepSeek 认为,其中有三个关键的缺陷。
一方面,在架构层面,对标准注意力机制的过度依赖严重制约了长序列处理的效率;其次,在资源分配方面,开源模型在后训练阶段的计算投入不足,限制了模型在高难度任务上的表现;最后,在 AI 智能体领域,开源模型在泛化能力和指令遵循能力上与专业模型相比存在明显差距,影响实际部署效果。
为了突破这些限制,DeepSeek 在 9 月底发布实验版 V3.2-Exp 时,提出了稀疏注意力机制(DSA),希望大幅降低计算复杂度。在经过两个月的实验后,DeepSeek 确认了稀疏注意力机制的有效性,并表示,在不牺牲长上下文性能的前提下,团队解决了关键的计算复杂性问题。
此次发布的两款模型均引入了这一机制。据 DeepSeek,除了在多个推理基准测试中,V3.2 的性能大幅提升外,在智能体场景中,V3.2 也成为一种具有成本效益的替代方案,不仅缩小了开源模型与前沿专有模型之间的性能差距,成本也显著降低。
目前,DeepSeek 的官方网页端、App 和 API 均已更新为正式版 DeepSeek-V3.2,但增强的 Speciale 版本目前仅以临时 API 服务形式开放,供社区评测与研究。
在海外社媒上,有网友认为,DeepSeek 此次发布是了不起的成就," 匹配 GPT-5 和 Gemini3 Pro 的开源模型出现了,差距正式消除。"DeepSeek 不断证明,严谨的工程设计可以超越单纯的参数规模。但如同 DeepSeek 所述的那样,我们仍需正视开源与闭源在整体性能上的差距,不断突破开源的边界。
(文章为作者独立观点,不代表艾瑞网立场)


