沈素明 2小时前
DeepSeek V4,和那道裂缝
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 沈素明

4 月 24 日,DeepSeek V4 预览版上线。同一天,OpenAI 发布 GPT-5.5。社交媒体上的对比图铺天盖地,参数表被拉了一遍又一遍。

但真正值得认真看的,不止在于参数表里!

过去这几年,AI 产业的运转靠一个默认规则支撑:价值的定义权在供给端。谁造出最强的模型,谁就决定什么能力收费、什么生态能活、什么开发者在牌桌上。闭源厂商既是裁判,也是运动员。这条规则不是谁宣布的,是技术壁垒、生态锁死和资本密度,一起限定的。

但是,V4 发布前后,有三件事同时发生了,从不同方向,在这条规则上撞出了裂缝。

第一件,发生在算力层

V4 发布当天,华为昇腾宣布完成首发适配。CANN 框架全面支持,昇腾 950 超节点完成工程化验证。从训练到推理,全流程跑通。

过去,顶级大模型的完整技术路径只有英伟达一条。国产芯片有纸面参数,但一落地,生态适配的工程成本,能把所有优势都吞掉。很多企业买过国产卡,最后放机房吃灰。不是芯片不行,是模型根本跑不起来。

这次的变化在细节里。适配不是在 V4 发布后启动的,是发布前就完成了算子对齐、性能调优、推理验证。发布当天,方案 ready。

效果在几天内就开始显现。一位 AI infra 从业者在社交媒体上算了笔账:用昇腾 950 超节点跑 V4-Flash,同等并发下,硬件成本比同规格英伟达方案低 40% 到 60%。他说这是第一次可以把国产卡写进生产环境采购清单," 不是因为支持国产,是账算得过来 "。

多家云计算公司随后启动了对昇腾版 V4 的测试。一家头部云厂商的工程师私下说,过去做国产芯片适配要投入一个团队干几个月,这次 " 代码拉下来就能跑 "。还有企业开始在招标文件里把 " 支持昇腾部署 " 写进技术规格。

英伟达的护城河不在芯片,而在 CUDA 生态。开发者习惯、框架依赖、算子库——换芯片等于换整套工具链。但 V4+ 昇腾证明了另一条路的可行性。不是替代,是多了一个选项。过去供给端的定义权,依赖一个前提:我有你绕不开的路。现在 Deepseek V4 的第二条路出现了。

同时也要看到,英伟达同一天发布了 H200 的升级路线图,Blackwell 架构的算力密度再翻倍。生态黏性不是一朝一夕能瓦解的,虽然现在裂缝出现了,但替代还很远。

第二件,发生在协议层

V4 的所有权重,以 MIT 协议开源。MIT 的意思是:商用随便,修改随便,部署随便,不强制署名。1.6 万亿参数,全球最大开源 MoE,就这么放了。

开源社区反应极快。两天内,V4-Flash 上线 OpenClaw 成为默认模型。GitHub 上出现大量基于 V4 的微调项目。一位旧金山的独立开发者用 V4-Flash 在半天内搭完一个合同审查工具,过去他要等公司批预算接 API。他在 X 上写:" 不需要问任何人,代码是我的,模型是我的,部署机器是我的。"

这是一个可能被低估的信号。过去,世界级模型的能力需要通过付费 API 获取。供给端通过调用次数、接口权限、微调许可来控制价值分配。MIT 协议把这些控制项全部删掉。开发者第一次拥有完整的技术主权。

但有一个细节:真正能被广泛验证的 " 杀手级应用 " 还没有出现。开源释放了能力,但没有自动释放产品。协议开源不等于生态繁荣。

第三件,发生在价格层

V4-Flash 定价 0.14 美元一百万 token。缓存命中价格 0.025 元人民币。发布初期七五折,Pro 输出降到 0.87 美元。GPT-5.5 的对应价格高出一个量级。多家开发者社区开始讨论同一个现象:调用大模型的成本已经低于公司内部的审批成本。当一个 API 调用只花几分钱,走流程比花这笔钱更贵。

一家中型 SaaS 公司的 CTO 用算盘 CerebrateX 跑了一遍成本模型,结论只有一句话:" 过去接 GPT-5 的 API 要写预算说明,现在 V4 这个价格,我甚至不需要跟财务开口。" 不需要开口,不需要申请,不需要开会——决策链条被价格本身砍掉了。

过去供给端通过定价权建立了整套价值分配体系。企业采购预算、部门核算、项目 ROI,都围绕模型调用成本展开。当这个成本趋近于零,旧体系的地基开始松动。

但同样要看到另一面。企业决策的惯性不会因为单价低就自动消失。安全审查、数据合规、供应商准入——这些非技术壁垒依然存在。价格归零不等于信任满分。

定义 AI 价值的权力,正在从 " 造模型的人 " 手里,滑向 " 用模型的人 " 手里。

但裂缝是裂缝,不是大门。闭源巨头的反制也同时进行,除了 OpenAI 在同一天发布 GPT-5.5,号称 " 迄今最智能 ",Anthropic 的 Opus 4.6、4.7 在 Agent 任务上也依然有明显优势。差距虽然没拉大,但也没消失。如果未来差距重新扩大到 6 到 12 个月,裂缝可能被重新补上。

DeepSeek 自己的软肋也摆在明处。V4 发布前被曝寻求 3 亿美元融资,用途之一是为核心团队做期权定价以止住人才流失。过去一年,字节豆包、智谱 GLM-5.1 等竞品已经完成反超尝试,挖人才墙角从没停过。3 月 29 日超过 7 小时的服务中断,波及数亿用户,基础设施投入不足的问题也暴露无遗。开源的代价是,下一个 V5 能不能跟上,能不能继续扛住旗,尚未为可知。

非技术壁垒也没有消失。分发渠道、合规认证、用户习惯——这些定义权的组成部分,不是参数和价格能攻破的。很多企业的采购流程里,模型来源仍然是安全审查的关键节点。选择 GPT,安全部门不需要额外解释;选择另一个模型,解释成本可能高过模型成本本身。

这些不确定性,和裂缝一样真实,现在只是 " 一次同时发生的松动 " 的记录。

AI 产业已经建立的规则不是铁板一块。它是一套由技术壁垒、生态依赖和资本密度共同支撑的,Deepseek V4 发布前后,升腾适配撞开了算力层的依赖,MIT 协议撞开了能力层的控制,价格撞开了决策层的门槛。

剩下的问题,不再是 " 谁拥有最强的模型 "。那个问题供给端已经回答了太多年。而是:当能力不再是稀缺品,当成本不再是门槛,当生态不再是单行道——谁的价值,会被重新评估?

算这笔账的人,不只在大模型公司里。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英伟达 华为 芯片 开源 mit
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论