钛媒体 3小时前
DeepSeek V4的真正价值,不在参数里
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 世界模型工场

DeepSeek V4,又一次让全中国震动了。

参数规模、上下文长度、基准分数……这些技术指标已经被各种报道反复对比。

但如果只停留在表面数据,就错过了这次发布最具战略意义的核心。

过去三年,中国大模型始终困在一个尴尬的现实里:训练靠英伟达,推理也靠英伟达,国产芯片只算备份选项。

英伟达一断供,整个中国模型圈都要为之焦虑。

但今天,DeepSeek V4 用实力证明:

一个前沿的万亿参数级大模型,也可以在国产算力上稳定高效地跑起来。

这件事的意义,已经超过了模型技术指标本身。

国产化的突围

要真正理解这次国产化适配的难度,就得先明白英伟达的芯片帝国。

英伟达拥有的不只是芯片,而是一个高度闭环的完整生态:

硬件上,有 GPU 芯片家族,加上 NVLink、NVSwitch 实现芯片间互联的高速网络;

软件上,CUDA 是英伟达十几年精心打造的 AI 操作系统。

它像一座高度优化的工厂,从最底层的算子(模型计算的基本单元),到并行计算、内存管理、分布式通信,全链路都为英伟达 GPU 量身定制。

换句话说,英伟达不只卖发动机,它还把道路、加油站、维修厂、导航系统都修好了。

全球顶级大模型几乎都生长在这片生态上。

切换到国产算力,面临的却是完全不同的情形。

硬件架构不同、互联方式不同、软件栈成熟度不同、工具生态仍在快速追赶。

DeepSeek 想要适配国产芯片,根本不是简单的换个引擎,而是给一辆已经在高速公路上高速行驶的赛车,切换到一条仍在铺设中的山路。

稍有不慎,就会出现抖动、失速,甚至整车无法前行。

这一次,DeepSeek V4 没有选择只沿着 CUDA 路径继续优化,而是开始同时进入国产算力的软件栈适配链路。

从公开信息看,V4 在基于国产推理芯片已实现了突破,深度适配华为昇腾 950 芯片,寒武纪在模型发布当日也可稳定运行,真正实现 Day 0 适配。

这意味着,前沿模型开始具备在国产芯片体系内落地的可能性。

DeepSeek V4 是如何做到的?

第一步,发生在模型架构层。

V4 没有选择让国产芯片硬扛 1M 上下文,而是先把模型自身变得更省。

官方技术报告里最关键的设计,是 CSA + HCA 混合注意力机制,以及 KV Cache 压缩等长上下文优化。

简单说,传统的长上下文推理,是让模型每次回答问题,都把一整座图书馆摊开来翻,显存、带宽和算力都会被迅速吃满。

V4 的做法,是先把图书馆里的资料重新索引、压缩和筛选,只把最关键的信息送进计算链路。

这样一来,1M 上下文不再完全依赖硬件蛮力,而是先通过算法把计算账和显存账做小。

这对国产芯片非常关键。

如果模型仍然高度依赖显存带宽和成熟 CUDA 库,国产芯片即使能跑,也很难跑得便宜、跑得稳。

V4 先降低推理负担,本质上是在给国产算力减压。

第二步,发生在 MoE 架构和激活参数层。

V4-Pro 虽然总参数达到 1.6 万亿,但每次推理只激活约 490 亿参数;V4-Flash 总参数 2840 亿,每次激活约 130 亿参数。

这意味着它不是每次调用都把全部参数拉出来计算,而是像一个大型专家团队,任务来了只叫相关专家上场。

对国产芯片来说,这同样重要。

它减少了每次推理必须承受的计算压力,也让长上下文和 Agent 场景更容易被推理卡承接。

第三步,是算子和 Kernel 层的适配。

CUDA 生态最强的地方,是大量底层计算已经被英伟达打磨成熟,很多高性能计算可以直接调用。

V4 的意义在于,它部分关键计算从英伟达黑盒里抽出来,变成更可迁移、可适配的自定义计算路径。

通俗一点说,V4 像是把发动机里最关键的零件拆开,让华为昇腾、寒武纪等厂商可以按自己的芯片结构重新调校。

第四步,是推理框架和服务层。

国产芯片适配如果只停留在 " 跑 Demo",产业意义并不大。真正值得关注的,是它能否进入可调用、可计费的服务体系。

据内部测试,在昇腾 950PR 上,V4 推理速度较早期版本获得显著提升,能耗也有明显下降,单卡性能在特定低精度场景下达到英伟达特供 H20 的 2 倍以上。

DeepSeek 官方提到,当前 V4-Pro 受限于高端算力,服务吞吐有限,预计下半年昇腾 950 超节点批量上市后,价格会大幅下调。

这表明,随着昇腾等国产硬件批量量产,V4 未来吞吐量和性价比还将进一步优化。

但值得注意的是,V4 并没有全面替代英伟达的 GPU 和 CUDA。模型训练可能还离不开英伟达,但推理已经可以逐步国产化。

这其实是非常现实的商业路径。

训练是阶段性投入,训练一次、调一次、迭代一次。推理是持续性成本,每天千万、亿级用户调用,每次都要花算力。

模型公司真正烧钱的大头,长期会越来越偏向推理。谁能更便宜、更稳定地承接推理需求,谁就能在产业应用里获得真实优势。

DeepSeek V4 第一次让中国前沿模型的推理部署,出现了一条不以英伟达 CUDA 为默认前提的路线。

这一步已经足够有分量。

V4 对产业应用的冲击

如果说国产芯片适配回答的是能不能跑起来,那么价格回答的就是另一个更现实的问题:

企业用不用得起?

过去 DeepSeek 最厉害的地方,正是它能把接近前沿模型的能力,压到极低价格。

V3、R1 时代如此,V4 依然如此。

区别在于,这一次它不是在普通上下文窗口里打价格战,而是在 1M 上下文 +Agent 能力的前提下继续压价。

按照 DeepSeek 官方价格:

V4-Flash 的缓存命中输入 0.2 元 / 百万 tokens,缓存未命中输入 1 元 / 百万 tokens,输出 2 元 / 百万 tokens;

V4-Pro 的缓存命中输入 1 元 / 百万 tokens,缓存未命中输入 12 元 / 百万 tokens,输出 24 元 / 百万 tokens。

把它放进同类国产模型里看:

与阿里 Qwen3.6-Plus 在 256K-1M 档位相比,V4-Pro 输出价约为其一半,V4-Flash 更低。

与小米 MiMo Pro Series 在 256K-1M 档位相比,V4-Flash 和 V4-Pro 都明显更便宜。

Kimi K2.6 的上下文为 256K,相比之下,V4-Pro 上下文更长、价格更低;V4-Flash 则直接把高频调用成本压到另一个量级。

这对企业应用意义极大。

因为 1M 上下文,意味着模型可以一次读完整代码仓、厚厚的合同包、几百页招股书、长期会议纪要,或者一个 Agent 连续执行任务时积累下来的历史状态。

过去很多企业应用卡在这里,模型能力够,但上下文不够;上下文够,价格又太贵;价格能接受,模型能力又不够稳。

比如,一个企业做投研 Agent,要让模型同时读公司年报、财报电话会、行业报告、竞品新闻和内部纪要。

上下文只有 128K 或 256K 时,系统往往要不断切片、检索、摘要,信息在多次压缩中丢失。

1M 上下文可以让模型保留更多原始材料,减少看漏和断片。

再比如代码 Agent。

它不是一次性写几行代码,而是要读仓库、理解依赖、修改文件、运行测试、根据报错再修复。这个过程会反复消耗 tokens。

如果每一步都很贵,Agent 就只能做演示,但如果 tokens 足够便宜,它才可能进入真实研发流程。

这也是 V4 的产业价值。

它未必是最强模型,但可能成为企业最高频的模型。

DeepSeek 再次让 AI 从少数大厂的专属玩具,变成千行百业都能规模化部署的生产力工具。

V4 的真正价值

当 1M 上下文以极低价格走向产业一线时,DeepSeek V4 的真正分量才显露出来。

这一切,是建立在国产算力尚不成熟的底座之上。

面对国产芯片生态的系统性差距,DeepSeek 团队没有选择等生态成熟再上线。

他们把发布窗口一再推迟,投入数月时间,与华为等伙伴展开深度联合调试,这样的工程难度,远超外界想象。

正因如此,V4 在国产算力上实现接近顶级闭源模型的推理与 Agent 能力,才显得格外不易。

V4 用自身证明,即使面对硬件生态的阶段性差距,中国团队依然可以通过极致的工程投入和软硬件协同创新,跑出有竞争力的性能。

当然,距离完全成熟仍有差距。

昇腾平台的工具链完善度、超大规模集群的稳定性、以及更多垂直场景的深度优化,都需要产业各方继续共同努力。

但 V4 的成功,已为后续模型铺设了一条可借鉴的路径。

它为整个 AI 供应链的自主可控,注入了一剂强心针。

在外部环境充满不确定性的当下,这份在限制中仍能突破的韧性,比单纯的参数指标更值得尊重。

" 不诱于誉,不恐于诽,率道而行,端然正己 "。

这句来自 DeepSeek 官方的文字,正是它最好的注脚。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

芯片 英伟达 gpu 高速公路 寒武纪
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论