
在过去两年里,当我们在谈论中美 AI 差距时,由于 Nvidia GPU 的显性存在,我们几乎把所有的目光都聚焦在了 " 算力鸿沟 " 上:因为制程封锁,由于 H100/H800 的禁售,中国 AI" 似乎 " 被卡住了脖子。
然而,就在所有人的眼睛都盯着硅(Silicon)的时候,大洋彼岸的华尔街和硅谷巨头们,却开始因为电子(Electrons)而焦虑。
微软 CEO 萨提亚 · 纳德拉(Satya Nadella)在上一季的财报电话会议上,以及马斯克在最近的长达 3 小时的《Moonshots》对话中,几乎是明着说了:
显卡不再是唯一的瓶颈,真正的瓶颈正在变成吉瓦(GW)级别的电力和带电的数据中心。
但在这个层面,也就是 AI 的基础物理层,电力供应上,中美正面临着完全相反的两种 " 绝境 " ——美国面临严重 " 缺电 " 危机,而中国却拥有 20 倍的冗余!
但中国即便电费便宜,AI 算力的能源成本却可能比美国高出 40%?
这到底是怎么回事呢?
美国需要一场 AI 曼哈顿计划
让我们先看一组数据,这组数据来自麦格理(Macquarie)最新的估算:
到 2030 年,中国 AI 发展所需要的电力增量,仅相当于过去五年中国新增发电能力的 1% 到 5%。而在同一时期,美国 AI 发展所需要的电力增量,将占据其过去五年新增发电能力的 50% 到 70%。
麦肯锡的最新预测更是表明,到 2030,美国数据中心电力需求将翻两番,达到 80~100 吉瓦:

请细品一下这组对比数据。
如果你品出来了,就知道,中国在过去五年里,为了这个 AI 时代提前储备了近乎 20 倍于 AI 实际需求的电力冗余。中国的电网,就像是一个蓄满水的巨型水库,AI 这条 " 大鱼 " 游进去,水位线几乎纹丝不动。
反观美国,它的电网建设速度不仅缓慢,而且面临着巨大的存量替换压力。如果要把 AI 这个新的巨兽塞进美国的电网系统,它将一口吞掉整个国家未来几年新增电力的大半壁江山。
2023 年,美国全年新增发电装机容量约为 51 GW(吉瓦)。同年,中国新增发电装机容量达到了惊人的 429 GW。
8 倍的差距。
这是一个物理世界的降维打击。

所以当 OpenAI 的 Sam Altman 在四处游说,声称需要 7 万亿美元来重构芯片产业链时,他其实更应该担心的是,即便有了芯片,他在美国哪里能找到足够的电把它们跑起来?
在美国弗吉尼亚州的 " 数据中心走廊 ",电力公司 Dominion Energy 已经无数次发出警告,由于输电瓶颈,他们可能无法及时为新的数据中心供电。
而同样的故事,正在全美各地重演。变压器短缺、环保审批流程(NEPA)长达数年的拖延、老旧电网的各种物理限制,正在成为美国 AI 头顶的 " 天花板 "。
但,中国已经 " 解决 " 了近期的 AI 电力供应问题。
如果你是一个在中国做 AI 基础设施的创业者,你可能还在为拿不到 H100 而头疼,但你绝不会像你的美国同行那样,因为申请不到市电扩容指标,而不得不去考虑自建核反应堆。
哪怕电费为零,中国 AI 的成本依然可能更高
读到这里,我们中国的读者可能会觉得:稳了。
既然电力是 AI 的血液,而中国拥有庞大的造血能力,那我们在 AI 竞赛中岂不是占据了绝对的地利?
且慢。这里有一个巨大的 " 但是 "。
中国有电,但是," 电怎么转化成算力 "(Efficiency)。
这就要回到半导体物理学的基本常识。
目前,美国顶级 AI 芯片(如 Nvidia 的 B200/GB200)采用的是台积电最先进的 4nm 甚至 3nm 工艺。而受限于制程封锁,中国的主流国产 AI 芯片不得不停留在 7nm 或更成熟的工艺节点上。
制程落后不仅仅意味着单卡算力(FLOPs)的差距,更意味着能效比(Performance per Watt)的巨大鸿沟。
在微观层面,晶体管越小,驱动它所需的电压越低,漏电率控制越好。反之,为了在落后制程上堆出同样的算力,工程师必须堆叠更多的晶体管、拉高频率、忍受更高的发热。
Weijin Research 做了一个场景模拟:
对比 CloudMatrix 集群(基于国产芯片)与 Nvidia 的 GB200 集群。即便在最理想的优化下,要在同样的算力输出(FLOPs)上对标英伟达,国产系统消耗的能源可能要高出 100% 甚至更多。
这是一个非常可怕的乘数效应。
让我们算一笔账:假设美国的工业用电平均成本是每千瓦时 0.12 美元,而中国依靠强大的煤电和新能源优势,将成本压到了 0.08 美元(便宜 33%)。但是,如果国产芯片跑同样的模型需要消耗 2.5 倍的电力(能效比落后),那么最终每生成一个 Token,或者每训练一个参数,中国的电力成本实际上是美国的 140%。
这就是" 效率黑洞 "。
即使我们的电网里流淌着世界上最充沛、最廉价的电子,但由于终端转换设备(芯片)的能效瓶颈,这些电子在转化为智能的过程中,被大量的热损耗浪费掉了。
这就解释了为什么中国巨头在最新的技术白皮书中,疯狂强调 " 液冷 "、" 系统级能效 "、" 集群优化 "。因为在单点物理能效无法突破制程天花板的情况下,必须通过系统工程(System Engineering)来补课。

液冷 CDU,核心作用是安全、精准、高效地将冷却液输送到服务器芯片,并回收热量
但散热也是物理限制。
当一个机柜的功率密度从 10kW 飙升到 100kW 甚至更高时,传统的风冷彻底失效,数据中心必须进行伤筋动骨的液冷改造。这对于基础设施的运营能力提出了地狱级的挑战。
电网设计正在成为新的核心国力
如果我们跳出单纯的 " 芯片卡脖子 " 叙事,站在更高的维度——能源与计算的共生(Energy-Compute Symbiosis)来看待这场博弈,你就会发现:
电力、电网设计和计算效率,正在成为 AI 时代的核心国家能力(Core National Capabilities)。
我们先来看美国的策略
面对陈旧的大电网,美国科技巨头正在试图 " 绕过 " 电网。
亚马逊买下了核电站旁边的数据中心,直接取电。
微软和 OpenAI 正在投资核聚变和小型模块化反应堆(SMRs)。
Google 正在探索地热供电。

SMRs 产生的热量可用于烧开水、产生蒸汽、驱动涡轮机和发电机,从而在火力发电厂中发电
这是一场 " 去中心化 " 的自救运动。美国正在倒逼其能源技术创新,试图用技术突破来弥补基建的亏欠。如果 SMR(小型核堆)技术一旦成熟,美国将解决算力能源的 " 最后一公里 " 问题。
美国策略的关键词是:分布式突围与核能复兴。
中国这边则在打一场完全不同的仗。
我们拥有世界领先的特高压(UHV)输电技术,能够将西部(甘肃、内蒙、四川)过剩的风光水电,跨越数千公里输送到东部的算力中心,或者直接在西部建设 " 东数西算 " 基地。但这还不够。
中国的真正野心在于将 AI 嵌入到能源系统本身。
比如,宁德时代正在把电池塞进数据中心,作为 UPS(不间断电源)和削峰填谷的神器。比亚迪正在构建从太阳能板到储能电站的闭环。
这是一种 " 全栈式 " 的打法。
中国正在试图用极其强大的宏观能源调度能力(Macro Energy Management),去对冲微观芯片能效(Micro Chip Efficiency)的不足。
既然我的芯片费电,那我就把电变得更便宜、更稳定、更易得。用物理世界的 " 大力 ",去出奇迹。
我们这里的关键词是:系统级碾压与特高压输送。
文章的最后,我们需要看到一个更深远的趋势。
" 当全世界都需要 AI 时,谁能提供‘交钥匙’方案?"
想象一下,未来一个发展中国家(比如沙特、巴西或东南亚国家)想要建设自己的主权 AI。他们面临两个选择:
选项 A(美国模式):花费巨资购买 Nvidia 的 H200 芯片(如果美国商务部批准的话),然后自己解决头疼的电力供应问题,自己去搞定电网扩容,自己去建设昂贵的液冷设施。这对于很多基建薄弱的国家来说,是不可承受之重。
选项 B(中国模式):中国公司提供一套 " 交钥匙 " 方案(Turnkey Solution)。我不只卖给你 AI 服务器(虽然能效稍差一点,但也能用),我还打包卖给你配套的:
一片 GW 级别的光伏电站;
一套巨型的储能电池系统;
一套全液冷的数据中心基础设施;
甚至是特高压输电网络。
这不仅仅是卖铲子,这是把 " 矿山 " 和 " 运矿车 " 一起打包卖了。
在 " 一带一路 " 沿线,这种 " 绿色能源 + 数字基建 " 的组合拳,正展现出极强的竞争力。美国或许在芯片的最尖端拥有无可比拟的统治力,但中国正在掌握 " 将算力落地为物理现实 " 的完整产业链。

中国提议在全球范围内构建 AI 驱动的卫星巨型网络,惠及所有人
回到文章开头,AI 的战争绝不仅仅发生在几纳米的微观世界里,同样发生在高耸的输电塔、连绵的光伏板和轰鸣的变压器之间。
美国焦虑的是 " 无米下锅 " ——有最好的炉子(芯片),但缺柴火(电力)。
中国焦虑的是 " 柴火利用率 " ——有堆积如山的柴火,但炉子的热效率不够高。
这两种焦虑,将塑造未来十年两个超级大国的科技树走向。
值得注意的是,对于中国的产业界而言,不要因为我们在电力基建上的巨大优势而沾沾自喜,从而忽视了芯片能效落后带来的长期成本黑洞;但也绝不要妄自菲薄,因为在即将到来的 " 能源算力时代 ",我们有牌可打。
游戏,才刚刚开始。


登录后才可以发布评论哦
打开小程序可以发布评论哦