霞光AI实验室 16小时前
OpenClaw刚装上,Token焦虑就来了?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 霞光 AI 实验室,作者|刘宇

最近,全球 AI 圈都在被一个词震撼—— OpenClaw(龙虾)。

OpenClaw 有多热?在国内,上门安装 " 龙虾 " 都成了暴利生意,几天赚 26 万;在海外,纽约、曼谷等城市,甚至出现了 " 龙虾教 " ——成百上千的 " 龙虾教徒 " 抢爆线下活动门票,把场地围得水泄不通 ……

而当用户真的用上 OpenClaw 才发现,它还没开始挣钱,就先耗空你的钱包:有程序员养 " 龙虾 ",日消耗数千万到上亿 Token;更有重度使用者一天就消耗 10 亿 Token,花费数千美元。

也因此,中国的 Token 出海正成为一项新产业——在全球最大的 AI API 聚合平台 OpenRouter 上,刚过去的 2 月,MiniMax 的 M2.5、月之暗面的 Kimi K2.5、DeepSeek 的 V3.2 三款国产模型的 Token 消耗量跻身全球前五;平台前十模型的总 Token 消耗约 38.2 万亿,其中中国模型独占 17.3 万亿,占比 45%。

尽管 OpenRouter 主要聚集了全球的个人开发者,在全球 AI 支出市场份额中只占很小比重,但这份 Token 消耗榜仍是中国 AI 大模型走向全球的最好注脚。

"Token 出海 " 这一概念并非空洞叙事,而是中国大模型通过 API 形式向全球输出推理服务的跨境商业模式。

过去,人们评价一个模型,往往从参数、运算以及各种榜单排名上去看,但这些维度仍停留在实验室的视角;如今,当 AI 智能体成为人们的助手、进入应用落地期,Token 消耗成为衡量应用规模化的核心指标。

或许,正如一位行业分析师所言,2026 就是 AI 算力叙事的分水岭,从今年开始,市场对 AI 大模型只认两个指标——你的 Token 生成速度是多少?你的百万 Token 成本是多少?

1 个月前,AI 圈的焦虑还是谁能先用上 OpenClaw。

那时,但凡一场 OpenClaw 相关的活动,就有上万乃至数万人围观;但凡一个技术社群,人们讨论最多的就是谁跑通了 OpenClaw,谁养起了 " 龙虾 "。好像谁晚了一步,谁就要被时代抛弃,被财富抛弃。

然而当第一批吃 " 龙虾 " 的人开始真的用上它后,就被失控般的 token 消耗震惊:

这些都是实实在在的真金白银,而且一旦跑起来还不能停下,Token 带来的焦虑感似乎肉眼可见。

就在 3 月 6 日,ChatGPT 也发布最新的 5.4 版本,不仅拥有更强的工具调用和智能体工作流,据称其电脑操作能力比肩人类,还将上下文长度提升至 1M。更长的上下文,让用户的直接感受就是 " 贵 " ——有开发者拿它写了半套 OpenClaw,账单就让人心疼了,甚至随便聊两句下来一天就要十几美元。

那为什么过去人们用 AI 对话时从来不提 Token,而现在 OpenClaw 却让 Token 消耗失控了?

要理解这种失控,需先看清智能体和传统对话式 AI 的差别。传统对话模型就像两人的简单对话,用户提问 - 模型回答,过程中的 Token 消耗是离散的、短暂的,一次顶多几千、上万;但 OpenClaw 这类自主智能体,则像一位全天候在岗的数字员工,它在你的指令下即要拆解目标、规划步骤,还要调用工具、检查结果,并且根据结果反馈再回退重试、自动循环 …… 每一步都在消耗 Token,每一轮对话都在放大成本——就像是个没有开关的水龙头,一次流淌百万、千万个 Token 都不在话下。

因此,这种 Token 的消耗增长已不是线性的,而是指数级的。

IDC 的数据更让人震惊:到 2030 年,全球活跃 AI 智能体将达 22.16 亿,年度 Token 消耗量将从 2025 年的 0.0005 PetaTokens 飙升至 152,667 PetaTokens ——增长超 3 亿倍。

这些消耗的 Token,就是实实在在的金钱。" 过去用 AI 大模型,可能我的日均消耗量就几十块钱,还不用在乎;但现在的日均消耗变成几百块钱,而且在某些情况下我其实不需要非得用头部模型,我可以根据不同任务适配不同的模型。" 无问芯穹首席解决方案架构师刘川林称。

这种情况下,中国模型在 Token 成本上的优势就显而易见。

以 Anthropic 为例,其最新旗舰模型 Claude Sonnet 4.6 的每百万 Token 输出 15 美元;而 MiniMax 最新的 M2.5 模型海外定价 Lightning 版本百万 Token 输出为 2.4 美元,不足前者的 1/6。

3 月 2 日晚间,MiniMax 披露了上市后的首份财报。根据财务数据,其 M2 系列文本模型在 2026 年 2 月的单日 Token 消耗量已增长至 2025 年 12 月的超 6 倍;其中来自编程套餐(Coding Plan)的 Token 消耗量增长超过 10 倍。而今年春节前后,Kimi 也凭着旗下 K2.5 大模型的优秀性能和低成本,获得大量全球付费用户及 API 调用,20 天收入就超过 2025 年全年总收入。

过去,中国 AI 大模型在海外开源社区靠刷榜赢得赞誉;如今,我们靠着实打实的 Token 成本优势,让海外 AI 开发者用脚投票。

靠着 Token 成本优势,中国 AI 大模型已经在海外霸榜了吗?

这里要祛魅一下。尽管近几周的 OpenRouter 周榜上,中国模型几乎霸占前五,但 OpenRouter 的主要用户还是全球个人开发者、独立黑客和初创公司,它们在全球 AI 支出中的市场份额也仅占 2% 左右,真正的流量大头还是那些财富 500 强企业、大型 SaaS 厂商(如 Salesforce、Microsoft),它们消耗了全球 90% 以上的 Token,但不会通过 OpenRouter 调用模型,而是直接对接像 OpenAI、Anthropic 这样的官方 API 或通过 Azure/AWS 来托管。

此外,像 ChatGPT、Gemini 以及 Claude 这种 AI 巨头,它们绝大部分的流量是在自家闭源生态内运行,也不经过 OpenRouter。

尽管这些都是闭源模型,但从一些披露的信息中也可见端倪。根据微软 Azure 的披露,2025 年 6 月,仅 Azure OpenAI 的日均调用量就达 4.4 万亿 Tokens,按月算其调用量更是超过 130 万亿 Tokens;而 2025 年 7 月谷歌披露的月度 Token 使用量更是高达 960 万亿,是 Azure OpenAI 的 7 倍以上。因此,即使 OpenRouter 显示的 Token 消耗高峰周(接近 18 万亿),也只是 Azure OpenAI 4 天的 Token 消耗量。

因此,OpenRouter 的榜单数据,更多是说明,中国大模型的 Token 主要满足了那些追求低成本开发者的需求,而没有进入最广阔的全球企业级 AI 市场

今天,DeepSeek、Qwen 等中国模型已经在海外开源模型拿下过半市场份额,为何进不了更大海外企业级市场?

这是因为,一方面欧美科技巨头在海外市场布局比中国企业更早、更深,微软的 Azure、谷歌的 Google Cloud、亚马逊的 AWS 都已在全球市场扎根数十年,形成了牢固的企业生态,而今天 AI 与云计算已经深度绑定,自然它们更容易拿下已打下基础的企业级市场。

另一方面,随着科技发展、地缘紧张,数据主权成为国家安全的重要部分,欧美企业(尤其是金融、医疗、政府)对数据的合规和安全极其敏感,因此他们也更倾向与本国的云、AI 厂商合作。

不过,这一欧美企业筑起的围墙,正开始出现裂痕。2025 年 10 月,Airbnb CEO 布莱恩就表示,公司正 " 大量依赖阿里巴巴的通义千问模型 "," 我们也会使用 OpenAI 的最新模型,但通常不会在生产环境中大量使用,因为有更快、更便宜的模型可供选择。" 当年 9 月,德国的梅赛德斯 - 奔驰与字节跳动合作,涉及豆包大模型、AI 云原生算法、智驾云等,豆包也就顺势 " 坐 " 上了奔驰。再往前,宝马、 SAP 也均与通义千问大模型合作。

随着 AI 对传统企业的 " 逼迫 " 加剧,许多欧美企业在向 AI 转型时已表现出 " 谁便宜用谁 " 的倾向。而中国 AI 大模型则凭借性价比优势打开局面——这可能是中国 AI 模型未来通过 " 被集成 " 方式(作为幕后廉价算力提供商)渗透进全球 SaaS 生态的最好机会。

接着又来了新问题——为什么中国大模型能走性价比路线?

浪潮信息首席 AI 战略官刘军曾表示:

Token 成本不是财务问题,是战略问题。谁能把成本压下来,谁就拿到了智能体规模化的入场券

Token 成本 ≈ 模型一次 " 思考 " 的电费 + 芯片折旧费。其中,芯片折旧费是单次购买,然后随着每一次计算再不断折旧;而电力是数据中心持续运转的燃料。我们曾跟多位数据中心从业者交流,通常一个数据中心运营成本中,电费要占 50% 以上,一个大型 AI 数据中心的年电力账单就可达数亿美元。

从 Token 成本的构成看 —— 芯片折旧拼的是产业创新,而电费拼的是国运级基础设施

而说到电力,全球范围内几乎只有中国的电力供应和电力设施是最完善的。美国则因越来越大的数据中心电力消耗,正在引发电荒。

今年 2 月初,美国纽约州议员就提出法案,要暂停发放数据中心新建及运营相关许可证,暂停令为期三年。原因是纽约州数据中心总数已超过 130 座,由于数据中心耗电巨大,有高达 10 吉瓦的用电需求正在排队接入电网,短短一年内这一数字增长了 3 倍。因此,纽约州州长开始要求数据中心 " 承担其应承担的成本 "。

除了纽约外,美国其他多个州也开始对数据中心单独收取更高的电费,甚至还要求数据中心提供长期承诺和财务抵押担保。

这背后并不是因为美国真的缺电(美国总发电容量是超过总用电量的),而是因为很多美国电力设施已经老旧,无法承受 AI 训练全年无休、满负荷运行的高负荷强度。而由于美国电力分配不均,而且数据中心的接入速度远大于发电建设速度,因此老旧的电力设施就卡住了数据中心的脖子。

这种结构性问题,短时间内难以解决,因此倒逼着一些大型数据中心自建电站,并承担电网升级的费用,也因此抬高了 AI 企业的算力成本。

但反观中国,过去几年中国已悄悄从顶层设计上布下一张大棋。

2020 年国家推出新基建,将 AI 算力、特高压等作为新型基础设施提前布局,建成了一张全球规模最大、稳定性最强、新能源消纳能力最强的交直流混联大电网,也是全球唯一实现特高压大规模商业化运营的电网。这种稳定性,几乎可以避免大规模停电的情况,让大模型的训练 / 推理不会因断电而废掉进度;而且容量超大,想扩卡就能扩,不会被电网容量卡脖子。

2022 年,国家再落下一子——推出东数西算工程,将东部算力需求引导到绿色电力资源丰富的西部。换句话,这就是让最耗电的 AI 数据中心离拥有最便宜电力的地方最近。这使得 AI 数据中心的运营成本直接降低了 30%-50%。

2025 年,国家又在雅鲁藏布江下游投入 1.2 万亿元布局雅江水电站,这将是全球最大的水电项目,建成后其年发电量约 3000 亿千瓦时,可满足全国约 3% 的电力需求。这将把西部的电力成本再往下拉一大截。

至此,Token 成本的 " 西升东降 " 格局已然清晰——在未来海量智能体同时在线的世界,中国可以用最低成本的 Token 把 AI 服务输送到全世界。

当算力不再被电力束缚,中国 AI 出海的想象空间,才真正开始打开。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 龙虾 程序员 纽约 曼谷
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论