超政经 前天
迟到一年半,DeepSeek V4不是一个模型,而是一套新秩序
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_caijing1.html

 

DeepSeek V4 的发布,表面上看,是一次大模型迭代。

但如果只把它理解成 " 又一个更强的大模型 ",就低估了它的意义。真正重要的,不是 V4 多了多少参数、跑分超过了谁、上下文窗口拉到了多长,而是它再次把 AI 行业最敏感的三个问题摆到了台面上:

谁来定义模型能力的下限?

谁来决定 token 的价格?

谁最终从 AI 产业链里挣钱?

从这个角度看,DeepSeek V4 的意义,不在于它是一个 " 迟到 " 的模型,而在于它是一个 " 卡位 " 的模型。

它卡住的是中国 AI 的技术路线。

它卡住的是全球开源模型的能力底线。

它也卡住了很多闭源模型公司继续讲高估值、高毛利、高 token 价格故事的空间。

一、V4 为什么这么晚?因为 DeepSeek 这次等的不是模型,而是算力底座

从 V3 到 V4,中间差不多隔了一年半。

如果按照大模型行业过去两年的节奏,这个间隔并不短。很多公司恨不得每隔几个月就发布一个新版本,不管能力是否有本质变化,至少要在市场上维持存在感。

但 DeepSeek 的逻辑不一样。

V4 之所以晚,最重要的原因之一,是它已经不只是一次模型升级,而是一次模型与国产算力体系的重新耦合。

DeepSeek 官网显示,V4 预览版已经在网页端、APP 和 API 上线;Hugging Face 上的官方模型卡显示,V4 系列包括 DeepSeek-V4-Pro 和 DeepSeek-V4-Flash,二者均支持 100 万 token 上下文,V4-Pro 为 1.6T 总参数、49B 激活参数,V4-Flash 为 284B 总参数、13B 激活参数,许可为 MIT。

更关键的是,路 · 透社报道提到,V4 是适配华为昇腾芯片技术的新模型;华为方面也表示,整个昇腾超节点产品线已经支持 DeepSeek V4 系列模型。SCMP 也报道,华为在 V4 发布后很快宣布其昇腾芯片及超节点系统对 V4 提供支持。

这就说明,V4 的发布不是单纯的 " 模型团队把参数调好了 ",而是模型、芯片、推理框架、云服务、开发者生态之间的一次协同。

过去中国大模型行业最尴尬的问题是:模型可以是中国的,但算力底座很大程度上仍然依赖英伟达;应用可以是中国的,但真正的训练、推理、生态适配,很大程度上仍然绕不开 CUDA。

V4 如果能够稳定跑在华为昇腾体系上,它的象征意义就非常清楚:

中国 AI 不再只是 " 用国产模型追赶美国模型 ",而是在尝试建立一套从芯片到模型再到应用的国产闭环。

这才是它晚的真正背景。

不是 DeepSeek 不想快。

而是它这一次要交付的,不只是一个模型文件,而是一套更完整的技术政治工程。

二、DeepSeek 的特殊性:它不是单纯做模型,而是在抬高整个行业的 " 能力下限 "

DeepSeek 最值得关注的地方,不是它每一次都能做到全球第一。

真正重要的是:只要 DeepSeek 开源,它就会变成行业能力的守门员。

所谓 " 守门员 ",不是说它一定站在最顶端,而是说它把门槛抬高了。

过去,一个模型公司只要比普通开源模型强一点,就可以卖一个不错的 token 价格;只要包装成 " 接近 GPT"" 国产最强 "" 行业领先 ",就可以向资本市场讲一个很大的故事。

但 DeepSeek 出现之后,这套逻辑被打穿了。

因为它不断用开源模型告诉市场:

这个能力,现在已经是免费或低价可得的。

这个水平,已经不再稀缺。

这个价格,你不能再随便卖高了。

V4 也是如此。

DeepSeek 官方 API 文档显示,V4-Flash 与 V4-Pro 均支持 100 万上下文,V4-Flash 每百万输出 token 为 0.28 美元,V4-Pro 每百万输出 token 为 3.48 美元;输入 token 还区分缓存命中和缓存未命中,价格进一步压低。

这意味着什么?

意味着很多模型公司的商业模式会被重新定价。

你的模型能力如果低于 V4,或者只是略高于 V4,你就很难维持高 token 价格。

因为客户会问一个非常现实的问题:

DeepSeek 已经给到这个能力、这个价格、这个开源生态了,我为什么还要为你的模型支付更高溢价?

这就是 DeepSeek 对行业最强的杀伤力。

它不一定直接抢走所有客户。

但它会把所有模型厂商的定价空间往下压。

它像一根横在行业里的标尺:

低于这根线,你没有资格卖高价。

略高于这根线,你也很难讲高毛利故事。

只有显著高于这根线,你才有资格继续保持溢价。

这对 AI 行业是残酷的。

但对整个产业是健康的。

三、DeepSeek 开源不是慈善,而是一种更高级的产业竞争

很多人一提 DeepSeek,就容易把它浪漫化:

有家国情怀。

有技术理想主义。

代表中国开源精神。

这些判断当然有其合理性。DeepSeek-R1 在 2025 年 1 月 20 日发布时,官方就强调其模型和技术报告完全开源,代码与模型采用 MIT 许可,可自由蒸馏和商业化。

但如果只讲 " 情怀 ",就把 DeepSeek 讲浅了。

DeepSeek 的开源,本质上也是一种产业竞争策略。

它通过开源,把模型能力变成公共基础设施。

一旦模型能力成为公共基础设施,整个 AI 行业的利润分配就会发生变化。

原来最值钱的是 " 模型本身 "。

现在最值钱的会变成:

谁有芯片。

谁有云。

谁有稳定推理服务。

谁有应用场景。

谁有数据闭环。

谁能把模型能力变成真正的产品和现金流。

所以,DeepSeek 的开源不是简单地 " 帮大家省钱 "。

它是在改写产业链里的利益结构。

模型公司原本希望自己成为 AI 时代的 " 石油公司 ",掌握最核心的资源,向全行业收租。

但 DeepSeek 的出现,把模型能力不断打成 " 水电煤 "。

水电煤当然重要,但水电煤一旦充分供给、价格透明、开源可用,最赚钱的就不一定是供水的人,而是盖城市的人。

所以,未来真正赚钱的,可能是半导体厂商、云厂商、AI 原生应用公司、企业服务公司,以及那些能把模型能力嵌入产业流程的公司。

反过来,最难受的可能恰恰是那些只做模型、需要持续融资、没有稳定现金流、又无法保持绝对领先的公司。

它们会发现,自己每次刚刚做出一个不错的能力,DeepSeek 很快就把类似能力开源出来。

它们刚刚想提价,DeepSeek 又把行业价格打下去。

它们刚刚想融资讲故事,投资人就会问:

如果 DeepSeek 下一版又开源了,你的护城河还剩什么?

四、V4 的真正冲击:它让 AI 泡沫少了一层想象力

2023 年到 2024 年,全球资本市场对 AI 的叙事非常简单:

只要你投 AI,市场就愿意相信你。

只要你增加 AI CAPEX,股价就可能上涨。

只要你说自己在训练大模型,资本就愿意给更高估值。

这背后的逻辑是:市场相信模型能力稀缺,相信算力投入可以换来垄断,相信未来少数几家公司可以控制 AI 入口并收取巨额租金。

但 DeepSeek-R1 之后,这个故事开始变得没那么顺了。

2025 年 1 月,R1 发布后迅速引发全球关注。路 · 透社当时报道称,R1 的发布推动了外界对低成本开源模型的重新认识;OpenAI CEO Sam Altman 也公开称 R1 是 " 令人印象深刻 " 的模型,尤其是在其价格表现上。

DeepSeek 的冲击不只是技术冲击,更是资本叙事冲击。

它让市场突然意识到:

原来不一定只有最有钱的公司才能做出强模型。

原来模型能力不一定永远高高在上。

原来 AI 的能力进步,未必必然转化为模型公司的利润。

原来开源模型可以这么快地逼近闭源模型。

所以,从 2025 年开始,资本市场对 AI 的态度发生了一个明显变化:

过去是 " 你投 AI,我就相信你 "。

后来变成 " 你投 AI,可以,但你要证明产出在哪里 "。

这个变化非常关键。

因为 DeepSeek 像一个镇定剂。

它不是让 AI 降温,而是让 AI 从狂热回到理性。

它告诉市场:AI 当然重要,但不是所有 AI 投入都会自动变成利润;模型当然重要,但模型本身未必能成为长期垄断;算力当然重要,但算力投入必须最终转化为产品、效率和现金流。

如果没有 DeepSeek,AI 泡沫可能会更大。

因为头部闭源模型公司会拥有更大的想象力空间。

它们可以继续向市场讲一个故事:

模型越来越强,价格越来越高,用户越来越离不开我们,未来我们会收取越来越多的 token 税。

但 DeepSeek 把这个故事撕开了一个口子。

它用开源告诉市场:

模型能力会扩散。

能力下限会提高。

价格会被压缩。

垄断不会那么容易。

这对资本市场未必是好消息。

但对 AI 产业本身,是好消息。

因为它逼着所有公司从讲故事回到做产品,从堆参数回到讲效率,从烧钱回到算账。

五、DeepSeek 的家国叙事,真正落点不是口号,而是产业自主

说 DeepSeek 有家国情怀,这个判断不是不能讲。

但要讲得准确。

所谓家国情怀,不应该只是 " 我们也有了一个中国模型 "。

真正重要的是:DeepSeek 正在把中国 AI 的技术路径,从 " 追赶美国模型 " 推进到 " 建设自主生态 "。

这才是 V4 的政治经济意义。

在美国持续限制先进 AI 芯片出口、中国推动国产算力替代的背景下,华为昇腾与 DeepSeek V4 的适配,不只是一个商业合作事件,而是中国 AI 产业链试图摆脱单点依赖的一次关键尝试。路 · 透社也指出,华为昇腾芯片线是中国减少对美国先进半导体技术依赖的重要组成部分。

这件事的意义在于:

模型不再只是模型。

模型开始成为国产芯片的 " 需求牵引器 "。

过去国产 AI 芯片最大的问题,不是没有硬件,而是没有足够强、足够真实、足够高频的模型负载去打磨生态。

没有顶级模型适配,芯片就很难进入主流开发者和企业客户的生产环境。

没有生产环境,生态就起不来。

生态起不来,开发者就继续留在 CUDA。

这就形成了一个死循环。

DeepSeek V4 如果真正跑通并规模化适配昇腾,就可能打破这个循环。

它给国产芯片提供了一个高强度、高关注度、高开发者密度的模型场景。

反过来,国产芯片也给 DeepSeek 提供了一个更具战略纵深的算力底座。

这就是 V4 的深层意义:

它不是单点突破,而是模型与芯片之间的相互成全。

六、V4 之后,AI 行业会变成什么样?

DeepSeek V4 发布之后,AI 行业的逻辑会更加清楚。

第一,模型公司会继续分化。

最顶级的闭源模型公司仍然有价值,因为它们如果能持续保持明显领先,就仍然可以卖高价、收高毛利。

但中腰部模型公司会非常难受。

它们既没有闭源巨头的绝对领先,也没有 DeepSeek 的开源影响力;既烧钱,又难以定价;既要融资,又要面对开源模型不断追赶。

这类公司未来会非常尴尬。

第二,云厂商会变得更重要。

模型开源之后,不代表所有企业都会自己部署。

大多数企业仍然需要稳定、便宜、安全、可扩展的推理服务。

所以云厂商会吃到很大一部分红利。

模型越开源,云的价值反而越突出。

第三,半导体厂商会成为真正的基础受益者。

AI 需求不会因为模型开源而消失。

恰恰相反,模型越便宜,应用越繁荣,推理需求越大,芯片和算力基础设施越重要。

DeepSeek 压缩的是模型服务的利润,不是整个 AI 产业的需求。

第四,应用公司会迎来真正机会。

当模型能力越来越便宜,创业公司的核心问题就不再是 " 我有没有模型 ",而是 " 我能不能把模型用到真实场景里 "。

谁能解决医疗、教育、金融、办公、工业、内容生产、代码开发里的具体问题,谁才有机会挣钱。

这意味着 AI 竞争正在从 " 模型崇拜 " 转向 " 应用兑现 "。

结语:DeepSeek V4 的发布,是一次能力升级,更是一次利润重分配

DeepSeek V4 的意义,不在于它终于来了。

而在于它来了之后,又一次把整个行业的地板抬高了。

它让开源模型更强。

让 token 价格更低。

让闭源模型更难讲垄断故事。

让中腰部模型公司更难融资。

让国产算力有了更强的现实抓手。

也让 AI 产业从泡沫叙事,重新回到效率、成本、生态和应用。

所以,DeepSeek V4 不是普通意义上的 " 新模型发布 "。

它更像是一个行业信号:

AI 的上限仍然由少数巨头探索,但 AI 的下限正在被 DeepSeek 这样的开源力量不断抬高。

而一旦下限被抬高,整个行业的利润结构就会改变。

模型不再天然拥有高毛利。

token 不再天然拥有高价格。

AI 不再只是资本市场里的宏大叙事。

它必须变成真实效率,真实产品,真实现金流。

这就是 DeepSeek V4 最重要的意义。

它不是让 AI 变得不重要。

恰恰相反。

它让 AI 变得更重要,也更残酷。

因为从现在开始,大家不能只讲 " 我有模型 "。

市场会问:

你的模型比 DeepSeek 强多少?

你的价格比 DeepSeek 贵多少?

你的产品到底解决了什么问题?

你的 AI 投入,最后到底赚不赚钱?

这才是 DeepSeek 真正改变的东西。

它不是在发布一个模型。

它是在重新定义整个 AI 行业的底线。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论