雪豹财经社 3小时前
Kimi 逆袭,硅谷纸贵
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

低成本美学的中国 AI 力量

Fast Reading

月之暗面发布了新一代模型 Kimi K2 Thinking。与之同时引发热议的,不仅是它在数学推理、代码理解上的进步,还有它背后的一个数字—— 460 万美元的训练成本。

在估值 5000 亿美元的 "AI 独角兽之王 "OpenAI 面前,粮草弹药薄弱的中国初创公司要想突围," 硬刚 " 显然不现实,只能另辟蹊径、弯道超车。

月之暗面正代表一种新型的 AI 力量——它不一定最豪华,却可能最高效;不一定拥有最多资源,却更懂得如何让资源发挥最大价值。

作者 | 陈序宁

编辑 | 黄运涛

10 月的最后一个工作日,雪豹财经社拜访了月之暗面的北京办公室。我们注意到,月之暗面的会议室都以乐队命名:Pink Floyd、The Rolling Stone、Queen、The Beatles、Radiohead......

阿里有 " 光明顶 ",百度有 " 昆仑 ",它们讲秩序与修炼;月之暗面却更像一支正在排练的乐队,崇尚自由、创新和反叛。摇滚乐在诞生之初,就是一种 " 低投入门槛 " 的音乐:它不需要复杂的录音室或昂贵的乐器,一把破吉他、一套架子鼓就能表达强大的力量。

就在那次拜访后一周,11 月 6 日,月之暗面发布了新一代模型 "Kimi K2 Thinking"。与之同时引发热议的,不仅是它在数学推理、代码理解上的进步,还有它背后的一个数字—— 460 万美元的训练成本。

在一个大型 AI 模型动辄要花几千万美元、几亿算力小时的时代,这个数字显得几乎不真实。但它确实发生了——而且,类似的故事正在中国反复上演,它们共同指向一个事实:中国的 AI 产业正在进入一个高效期:模型越来越强,但花的钱越来越少。

问题是,这意味着什么?

" 中国效率 " 再次震撼硅谷

CNBC 一则有关 Kimi K2 Thinking 训练成本的报道,犹如巨石投入水面,业界一片哗然。

460 万美元,还不到 GPT-4 训练成本的 8%,甚至比 DeepSeek 披露的 V3 训练成本(租赁价,正式训练阶段)560 万美元还要低。

而在性能上,Kimi K2 Thinking 在 Humanity ‘ s Last Exam、BrowseComp 等部分权威基准测试中,取得了媲美甚至超越 GPT-5 和 Claude 4.5 等顶级模型的表现。

长期以来,在人们的印象中,AI 能力与天价资本支出之间似乎已形成了线性关系:更强大的模型,理应对应着更庞大的投入。

但 Kimi K2 和 DeepSeek 的出现都打破了这个逻辑,重建了一套新的叙事,彻底颠覆了传统认知。

虽然此后月之暗面创始团队出面回应:" 这不是官方数据。训练成本很难计算,因为其中很大一部分用于研究和实验。" 但在巨大的成本差异面前,这个解释并没有稀释业界的惊叹。

Hugging Face 联合创始人 Thomas Wolf 甚至发出灵魂拷问:" 我们是否每隔几个月就要经历一次‘ DeepSeek 时刻’?"

与之形成鲜明对比的是,今年 8 月,OpenAI 首席执行官山姆・奥尔特曼(Sam Altman)表示,未来公司将投入数万亿美元夯实 AI 基建,用于支持各项人工智能服务。而就在 Kimi K2 发布后两天,甲骨文一笔高达 180 亿美元的数据中心融资交易的消息公布。

两相对比,海外媒体开始反思中美两国在 AI 基础设施投入和发展模式的差异。

CNBC 预计,到 2027 年,美国将在数据中心上投入近 7000 亿美元,而相比之下,中国的主要玩家,包括阿里巴巴、腾讯、字节跳动和百度,合计预期投入不到 800 亿美元。也就是说,资本支出差距高达 10:1,但系统性能却基本相当。

当美国玩家在通过私人信贷和债券市场为庞大的数据中心融资时,中国同行正在靠效率取胜——使用更便宜的芯片、开源模型,以及需要更少资本投入的精简基础设施。

据一家国际媒体估算,Kimi K2 Thinking 的 API 价格比 OpenAI 和 Anthropic 的同类模型便宜 6 到 10 倍,可能对企业的采用模式造成冲击。

Thomas Wolf 表示,Kimi K2 Thinking 发布后,已成为该平台上最受开发者欢迎的模型。

进一步的质疑在于,AI 领域的游戏规则是否正在被改写?

Interconnected Capital 创始人兼首席投资官 Kevin Xu 在接受 CNBC 采访时表示,此前,人工智能领域几乎所有的事情都是由硬件主导的,这就是为什么 OpenAI、Anthropic 能够做它们所做的事情。但 DeepSeek 的进化提供了在中国发展人工智能的另一种方式,即软件主导。

如今,从 DeepSeek、阿里巴巴的通义大模型,再到 Kimi K2 Thinking,中国的大模型,正在通过开源策略和极致的成本效率,改变人工智能领域的竞争态势和格局。

Kimi K2 Thinking 为何 " 炸场 "?

Kimi K2 Thinking 之所以大受欢迎,原因很简单:更聪明,但价格更低。

以每百万 Token 的 API 调用成本来对比,K2 Thinking 的输入和输出成本分别为 0.15 和 2.5 美元 ,GPT-5 分别为 1.25 和 10 美元。

市场的认知已经被重塑:最实用的模型 ≠ 最贵的模型。

在过去很长一段时间,资金算力决定论是美国模式主导下的叙事逻辑。OpenAI、Anthropic、Google DeepMind 们争相掀起大模型 " 军备竞赛 ",但钱烧得越来越快,模型进步却越来越慢。据美国投行摩根士丹利的估算,训练 GPT-4 的成本超过 6000 万美元。

而在中国,我们看到的恰好相反:Kimi 用几十分之一的成本,达到了接近 GPT 的能力。

估值 5000 亿美元的 "AI 独角兽之王 "OpenA,技术团队规模几千人,其中大部分是高薪挖来的专家,已部署超过 10 万块 NVIDIA H100 GPU,接下来还有 1 万亿美元的算力扩张计划。而月之暗面估值 33 亿美元,不及前者的 1%,技术团队只有 200 余人。

在这场完全不对等的对决面前,粮草弹药薄弱的中国初创公司要想突破 OpenAI 们的铜墙铁壁," 硬刚 " 显然不现实,只能另辟蹊径、弯道超车。

Kimi 现阶段的重点是:" 充分压榨每一张卡 ",通过架构优化和成本控制换取最佳性能。

从烧钱竞赛转向效率竞赛,这并非 " 中国效率 " 第一次给硅谷带来 " 亿点点 " 小小的震撼。

自去年年底 DeepSeek R1 横空出世,在大幅降低推理成本的同时达到了与 o1 并肩的表现,国产大模型多次贡献令人惊喜的表现。Qwen 跻身 Hugging Face 模型下载榜单的 Top 10,智谱(Z.ai)的 GLM 系列模型、MiniMax 等也颇受海外用户关注。

换句话说,中国 AI 创新在资源限制中不断涌现。

" 小米加步枪 " 的突围逻辑

如果说 2022 年 ChatGPT 的发布标志着 "AI 启蒙 ",那么进入 2025 年,中国 AI 在有限资源下涌现出的创新,用有限的算力榨出的极限性能,一次次向世界展示了中国团队的技术实力。

AI 创新不仅是算力竞赛,也是效率竞争;AI 的竞争不仅是 " 有多少钱 ",也是 " 怎么用好每一分钱 "。

Kimi 和 DeepSeek 的崛起,让全球观察者重新审视一个老问题:为什么那些没有庞大资金支撑的中国团队,能在 AI 领域接连跑出黑马?

答案或许可以概括为三点:技术哲学、资源禀赋、算法策略。

美国的大模型往往带着 " 科研理想主义 " 的浪漫色彩——先设想一个理想系统,再投入海量资源去逼近。而中国的团队更像是 " 工程现实主义者 " ——现有资源下的最优解是什么。

DeepSeek 在去年引入了被称为 " 稀疏激活 " 的技术,即模型在推理时并非激活所有神经元,而是根据任务动态选择部分网络参与,从而将推理成本压缩至原来的几分之一。

Kimi K2 模型第一次在超大规模的模型上采用了全新一代的优化器,实现了 2 倍左右的效率提升。

11 月 5 日,就在 Kimi K2 Thinking 发布的前一天,英伟达 CEO 黄仁勋在一场闭门会中断言:" 中国将赢下这场人工智能的全球竞赛 "。

重估中国 AI 基模的三重逻辑

是时候给月之暗面们重新估值了。因为,资本市场正在慢慢意识到:AI 公司的真正壁垒,或许不再是参数规模,而是单位算力产出价值(Compute Efficiency)。

对月之暗面们的价值重估至少有三重逻辑:

第一重,从 " 资本密集型 " 转向 " 智力密集型 "。不到 500 万美元训练出能与 GPT-4 相抗的模型,意味着这家公司拥有一种新型技术杠杆,能在低成本条件下保持高速创新。这种能力本身就是资本市场最稀缺的资产——即高 ROI 的研发能力。

第二重,成本结构可复制,商业化可预期。与那些动辄上亿美元的模型不同,Kimi 的成本意味着它的更新频率更高、风险更可控。这让月之暗面具备了可持续迭代的模型。有点类似于服装行业为应对快速变化的市场需求而建立的柔性生产体系。

第三重,战略位置:处于中国 AI 生态的关键节点。中国的 AI 产业正处在 " 算力去中心化 " 的关键阶段。以阿里、字节为代表的巨头,以 Deepseek、月之暗面为代表的模型公司,正在形成一条从底层框架到应用的 " 内生循环 "。DeepSeek 和 Kimi 的出现,不仅补全了 " 高性价比模型 " 这一生态空白,也成为中国 AI 产业全球化的新样板。它证明了,不依赖巨额算力投入,也能在技术上正面对标国际顶级模型。

过去三年,AI 竞争的关键词是 " 大 ":参数更大、语料更大、训练集群更大。

但接下来,它会变成另一种逻辑:谁能以最少的资源,创造出最强的智能。

未来的 AI 竞争将不再是 " 硬件战争 ",而是四个维度的综合较量:数据效率——谁能用更少的数据训练出更通用的模型;算法创新——谁能让模型学得更快、想得更深;推理成本——谁能让 AI 的使用成本降到人人可负担;场景融合——谁能最快把 AI 变成真实生产力。

中国的机会正在于此:在硬件上虽有短板,但在成本结构、产业整合、场景落地上具备极强的实践能力。

而像月之暗面这样的公司,正代表着这种新型 AI 力量——它不一定最豪华,却可能最高效;不一定拥有最多资源,却更懂得如何让资源发挥最大价值。

在这一新的周期里,决定胜负的不只是谁拥有更多芯片,还有谁能用有限的芯片做出最聪明的模型和应用。

DeepSeek 和 Kimi 的几百万美元,也许不仅是一笔训练预算的数字,更是中国人在限制中也能持续创新的生动注脚。

封面来源:kimi 官网

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 百度 数学 独角兽
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论