DeepSeekV3.2 的发布标志着中国 AI 市场正式进入 " 第二波冲击 " 阶段。
12 月 6 日,据硬 AI 消息,摩根大通在研报中称,这不仅仅是一次模型迭代,更是一场针对推理成本和硬件生态的结构性革命。DeepSeek 通过架构创新将 API 价格再度下压 30-70%,使得长上下文推理成本暴降 6-10 倍。
研报强调,更为关键的是,V3.2-Exp 实现了对非 CUDA 生态(华为昇腾、寒武纪、海光)的 "Day-0" 首日支持,彻底打破了前沿模型对英伟达硬件的依赖路径。
据摩根大通分析,受益者包括云运营商阿里巴巴、腾讯、百度,以及芯片制造商中微公司、北方华创、华勤技术和浪潮信息。预计 V3.2 模型将在未来几个季度进一步提升生成式 AI 在中国的普及率。
据华尔街见闻文章,12 月 1 日,DeepSeek 发布 V3.2 系列两款模型并开源。V3.2 主打日常应用,推理能力达 GPT-5 水平,首次实现思考模式与工具调用融合;V3.2-Speciale 专注极致推理,在 IMO、CMO、ICPC、IOI 四项国际竞赛中斩获金牌。
性能与架构:效率的极致压榨与 " 智能体 " 进化
DeepSeekV3.2 并非单纯堆砌参数,而是通过算法层面的创新实现了效率的质变。该模型延续了 V3.1 的混合专家(MoE)架构主体,但引入了 DeepSeek 稀疏注意力机制(DSA)。
摩根大通指出,作为 9 月 29 日首次发布的实验性 V3.2-Exp 模型的后续产品。V3.2 模型通过持续训练引入了 DeepSeek 稀疏注意力机制(DSA),这是唯一的架构变动,减少了长上下文计算,同时保持了在公开基准测试中的水准。

具体来看,主要包括以下四个方面:
架构突破:DSA 机制通过闪电索引器选择关键键值条目,将长上下文情境下的计算复杂度从平方级(O ( L2 ) )直接降维至准线性级(O ( L · k ) )。
性能数据:在 128ktokens 的长文本环境下,V3.2 的推理速度较前代提升 2-3 倍,GPU 内存占用减少 30-40%,且模型性能不仅没有退步,反而保持了极高水准。
智能体定位:V3.2 被明确定位为 " 为 Agent 构建的推理优先模型 "。它实现了 " 思考 + 工具调用 " 的深度交错——模型可以在单一轨迹中结合思维链与工具调用(API、搜索、代码执行)。

高端版本:Speciale 版本在奥林匹克级数学竞赛和竞争性编程中表现优异,其推理基准已媲美 Gemini3.0Pro 和 GPT-5 级系统。
定价革命:通缩的推理经济学
摩根大通指出,DeepSeekV3.2 的发布再次确立了其 " 价格屠夫 " 的地位,尤其是在与美国顶级模型的对比中,展现了惊人的性价比优势。
研报认为,DSA 架构带来的效率提升直接转化为了 API 的结构性降价。具体表现为:
具体定价:V3.2Reasoning 的每百万 tokens 输入价格降至 0.28 美元,输出价格降至 0.42 美元。

降幅对比:相比 2025 年 9 月发布的 V3.1Reasoning(输入 0.42/ 输出 1.34 美元),输出成本暴跌 69%,输入成本降低 33%。相比 2025 年 1 月的 R1 模型,价格优势更加呈指数级扩大。

据摩根大通分析,根据第三方基准,部分长上下文推理工作负载的实际成本降低了 6-10 倍。这种定价策略迫使市场重新定义 " 前沿级 " 能力的成本基准,对所有竞争对手造成巨大的下行定价压力。
在 ArtificialAnalysis 的智能指数与价格对比中,DeepSeekV3.2 处于 " 高智能、极低价格 " 的绝对优势象限。
生态重构:国产芯片的 "Day-0" 时刻
据研报,DeepSeekV3.2 标志着中国 AI 模型从单纯依赖英伟达 CUDA 生态,转向对国产硬件的主动适配。
摩根大通称,V3.2-Exp 是首批在发布首日(Day-0)即针对非 CUDA 生态进行优化的前沿模型,支持包括华为的 CANN 堆栈和 Ascend(昇腾)硬件、寒武纪的 vLLM-MLU 以及海光的 DTK。
这向市场发出了强烈的信号—— GPT-5 级别的开源模型可以在国产加速器上高效运行。这将由下至上降低中国 AI 买家的执行风险,直接带动对国产 AI 芯片和服务器的增量需求。


登录后才可以发布评论哦
打开小程序可以发布评论哦