文 | 世界模型工场
DeepSeek V4,又一次让全中国震动了。
参数规模、上下文长度、基准分数……这些技术指标已经被各种报道反复对比。
但如果只停留在表面数据,就错过了这次发布最具战略意义的核心。
过去三年,中国大模型始终困在一个尴尬的现实里:训练靠英伟达,推理也靠英伟达,国产芯片只算备份选项。
英伟达一断供,整个中国模型圈都要为之焦虑。
但今天,DeepSeek V4 用实力证明:
一个前沿的万亿参数级大模型,也可以在国产算力上稳定高效地跑起来。
这件事的意义,已经超过了模型技术指标本身。
国产化的突围
要真正理解这次国产化适配的难度,就得先明白英伟达的芯片帝国。
英伟达拥有的不只是芯片,而是一个高度闭环的完整生态:
硬件上,有 GPU 芯片家族,加上 NVLink、NVSwitch 实现芯片间互联的高速网络;
软件上,CUDA 是英伟达十几年精心打造的 AI 操作系统。
它像一座高度优化的工厂,从最底层的算子(模型计算的基本单元),到并行计算、内存管理、分布式通信,全链路都为英伟达 GPU 量身定制。
换句话说,英伟达不只卖发动机,它还把道路、加油站、维修厂、导航系统都修好了。
全球顶级大模型几乎都生长在这片生态上。
切换到国产算力,面临的却是完全不同的情形。
硬件架构不同、互联方式不同、软件栈成熟度不同、工具生态仍在快速追赶。
DeepSeek 想要适配国产芯片,根本不是简单的换个引擎,而是给一辆已经在高速公路上高速行驶的赛车,切换到一条仍在铺设中的山路。
稍有不慎,就会出现抖动、失速,甚至整车无法前行。
这一次,DeepSeek V4 没有选择只沿着 CUDA 路径继续优化,而是开始同时进入国产算力的软件栈适配链路。
从公开信息看,V4 在基于国产推理芯片已实现了突破,深度适配华为昇腾 950 芯片,寒武纪在模型发布当日也可稳定运行,真正实现 Day 0 适配。
这意味着,前沿模型开始具备在国产芯片体系内落地的可能性。
DeepSeek V4 是如何做到的?
第一步,发生在模型架构层。
V4 没有选择让国产芯片硬扛 1M 上下文,而是先把模型自身变得更省。
官方技术报告里最关键的设计,是 CSA + HCA 混合注意力机制,以及 KV Cache 压缩等长上下文优化。
简单说,传统的长上下文推理,是让模型每次回答问题,都把一整座图书馆摊开来翻,显存、带宽和算力都会被迅速吃满。
V4 的做法,是先把图书馆里的资料重新索引、压缩和筛选,只把最关键的信息送进计算链路。
这样一来,1M 上下文不再完全依赖硬件蛮力,而是先通过算法把计算账和显存账做小。
这对国产芯片非常关键。
如果模型仍然高度依赖显存带宽和成熟 CUDA 库,国产芯片即使能跑,也很难跑得便宜、跑得稳。
V4 先降低推理负担,本质上是在给国产算力减压。
第二步,发生在 MoE 架构和激活参数层。
V4-Pro 虽然总参数达到 1.6 万亿,但每次推理只激活约 490 亿参数;V4-Flash 总参数 2840 亿,每次激活约 130 亿参数。
这意味着它不是每次调用都把全部参数拉出来计算,而是像一个大型专家团队,任务来了只叫相关专家上场。
对国产芯片来说,这同样重要。
它减少了每次推理必须承受的计算压力,也让长上下文和 Agent 场景更容易被推理卡承接。
第三步,是算子和 Kernel 层的适配。
CUDA 生态最强的地方,是大量底层计算已经被英伟达打磨成熟,很多高性能计算可以直接调用。
V4 的意义在于,它部分关键计算从英伟达黑盒里抽出来,变成更可迁移、可适配的自定义计算路径。
通俗一点说,V4 像是把发动机里最关键的零件拆开,让华为昇腾、寒武纪等厂商可以按自己的芯片结构重新调校。
第四步,是推理框架和服务层。
国产芯片适配如果只停留在 " 跑 Demo",产业意义并不大。真正值得关注的,是它能否进入可调用、可计费的服务体系。
据内部测试,在昇腾 950PR 上,V4 推理速度较早期版本获得显著提升,能耗也有明显下降,单卡性能在特定低精度场景下达到英伟达特供 H20 的 2 倍以上。
DeepSeek 官方提到,当前 V4-Pro 受限于高端算力,服务吞吐有限,预计下半年昇腾 950 超节点批量上市后,价格会大幅下调。
这表明,随着昇腾等国产硬件批量量产,V4 未来吞吐量和性价比还将进一步优化。
但值得注意的是,V4 并没有全面替代英伟达的 GPU 和 CUDA。模型训练可能还离不开英伟达,但推理已经可以逐步国产化。
这其实是非常现实的商业路径。
训练是阶段性投入,训练一次、调一次、迭代一次。推理是持续性成本,每天千万、亿级用户调用,每次都要花算力。
模型公司真正烧钱的大头,长期会越来越偏向推理。谁能更便宜、更稳定地承接推理需求,谁就能在产业应用里获得真实优势。
DeepSeek V4 第一次让中国前沿模型的推理部署,出现了一条不以英伟达 CUDA 为默认前提的路线。
这一步已经足够有分量。
V4 对产业应用的冲击
如果说国产芯片适配回答的是能不能跑起来,那么价格回答的就是另一个更现实的问题:
企业用不用得起?
过去 DeepSeek 最厉害的地方,正是它能把接近前沿模型的能力,压到极低价格。
V3、R1 时代如此,V4 依然如此。
区别在于,这一次它不是在普通上下文窗口里打价格战,而是在 1M 上下文 +Agent 能力的前提下继续压价。
按照 DeepSeek 官方价格:
V4-Flash 的缓存命中输入 0.2 元 / 百万 tokens,缓存未命中输入 1 元 / 百万 tokens,输出 2 元 / 百万 tokens;
V4-Pro 的缓存命中输入 1 元 / 百万 tokens,缓存未命中输入 12 元 / 百万 tokens,输出 24 元 / 百万 tokens。
把它放进同类国产模型里看:
与阿里 Qwen3.6-Plus 在 256K-1M 档位相比,V4-Pro 输出价约为其一半,V4-Flash 更低。
与小米 MiMo Pro Series 在 256K-1M 档位相比,V4-Flash 和 V4-Pro 都明显更便宜。
Kimi K2.6 的上下文为 256K,相比之下,V4-Pro 上下文更长、价格更低;V4-Flash 则直接把高频调用成本压到另一个量级。
这对企业应用意义极大。
因为 1M 上下文,意味着模型可以一次读完整代码仓、厚厚的合同包、几百页招股书、长期会议纪要,或者一个 Agent 连续执行任务时积累下来的历史状态。
过去很多企业应用卡在这里,模型能力够,但上下文不够;上下文够,价格又太贵;价格能接受,模型能力又不够稳。
比如,一个企业做投研 Agent,要让模型同时读公司年报、财报电话会、行业报告、竞品新闻和内部纪要。
上下文只有 128K 或 256K 时,系统往往要不断切片、检索、摘要,信息在多次压缩中丢失。
1M 上下文可以让模型保留更多原始材料,减少看漏和断片。
再比如代码 Agent。
它不是一次性写几行代码,而是要读仓库、理解依赖、修改文件、运行测试、根据报错再修复。这个过程会反复消耗 tokens。
如果每一步都很贵,Agent 就只能做演示,但如果 tokens 足够便宜,它才可能进入真实研发流程。
这也是 V4 的产业价值。
它未必是最强模型,但可能成为企业最高频的模型。
DeepSeek 再次让 AI 从少数大厂的专属玩具,变成千行百业都能规模化部署的生产力工具。
V4 的真正价值
当 1M 上下文以极低价格走向产业一线时,DeepSeek V4 的真正分量才显露出来。
这一切,是建立在国产算力尚不成熟的底座之上。
面对国产芯片生态的系统性差距,DeepSeek 团队没有选择等生态成熟再上线。
他们把发布窗口一再推迟,投入数月时间,与华为等伙伴展开深度联合调试,这样的工程难度,远超外界想象。
正因如此,V4 在国产算力上实现接近顶级闭源模型的推理与 Agent 能力,才显得格外不易。
V4 用自身证明,即使面对硬件生态的阶段性差距,中国团队依然可以通过极致的工程投入和软硬件协同创新,跑出有竞争力的性能。
当然,距离完全成熟仍有差距。
昇腾平台的工具链完善度、超大规模集群的稳定性、以及更多垂直场景的深度优化,都需要产业各方继续共同努力。
但 V4 的成功,已为后续模型铺设了一条可借鉴的路径。
它为整个 AI 供应链的自主可控,注入了一剂强心针。
在外部环境充满不确定性的当下,这份在限制中仍能突破的韧性,比单纯的参数指标更值得尊重。
" 不诱于誉,不恐于诽,率道而行,端然正己 "。
这句来自 DeepSeek 官方的文字,正是它最好的注脚。


登录后才可以发布评论哦
打开小程序可以发布评论哦