昆仑支 10小时前
美国的AI出现一个软肋
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

如果说人工智能(AI)是时下最 " 吃电 " 的新生儿,那美国电网大概就是毫无防备进入 " 中年危机 " 的那一位。

前不久,TikTok 在美国新设立的运营实体突然 " 卡壳 ",原因不是算法 " 罢工 ",也不是服务器过热,而是最基本、最尴尬的问题——断电。

断电造成数百万用户一度无法发视频、刷内容、看点赞和评论。短短几个小时,美国网友集体体验了一把 " 没有电的数字世界 "。这也暴露出一个窘迫的现实:当下美国把人工智能视为全球科技竞争的重中之重,但在最基础的能源供应层面,电是真不够用。

数据中心可以理解为现代互联网的 " 仓库 + 大脑 "。云计算、电子邮件、短视频、流媒体、人工智能模型训练和推理,统统塞在这里。对人们每日都在使用的短视频平台来说,数据中心一停,业务就直接 " 休克 "。过去几年,随着人工智能大模型的迅猛发展,数据中心建设速度也开启 " 狂飙模式 ",但美国遇到的问题是,服务器可以连夜上架,电网却没法一键升级。

美国经济对数据中心的依赖高到什么程度?按照哈佛大学经济学家贾森 · 富尔曼的说法,2025 年上半年美国国内生产总值的增长,几乎全部来自数据中心和信息技术领域。如果把这部分剔除,美国经济增长率只剩下 0.1%。难怪德意志银行等机构警告:一旦美国在人工智能数据中心上的投资放缓,经济可能会直接滑向衰退。

问题在于,支撑这一切的电力系统压根没做好准备。一个大型数据中心园区,像谷歌、微软或亚马逊建设的那种,耗电量往往相当于一座几十万人口的中型城市全部家庭用电的总和。美国皮尤研究中心的数据显示,2024 年美国数据中心的用电量约为 183 太瓦时,占全国电力总消费的 4% 以上。到 2030 年,这一数字预计将暴涨 133%,达到 426 太瓦时。

数据中心越建的越多,电网就越 " 喘 "。升级输电线路、变电站和配电系统的成本很难由科技巨头一方承担,而得靠居民和企业分担。眼下,美国部分地区的数据中心集中布局,已经开始推高当地电力需求,电价随之上涨。皮尤研究中心预计,到 2030 年,美国平均电费可能上涨近 8%,而数据中心扎堆的弗吉尼亚州涨幅可能更高。

照这样下去,上涨的电费账单很可能比解锁人工智能最新功能的 " 说明书 " 更早送到美国老百姓的信箱中。

从更宏观的角度看,美国电力系统正遭遇一场 " 历史级错位 "。过去二十多年,美国国内生产总值持续增长,用电量却基本原地踏步。这意味着,美国电力行业从未经历过如此规模的需求爆发。2026 年 1 月,美国能源信息署在《短期能源展望》中给出截至 2027 年的用电量预测:2026 年美国用电量将增长 1%,2027 年将增长 3%,而推动这一变化的核心动力正是数据中心持续增长的用电需求。

业内人士警告,美国正经历现代史上最严重的能源短缺阶段之一。有人测算过,ChatGPT 进行一次查询的耗电量大约是谷歌进行一次搜索的 10 倍。美国能源研究学会估算,OpenAI 的 "Orion" 模型完成一次训练的耗电量高达约 110 亿千瓦时,相当于上百万美国家庭一整年的用电量。真可谓 " 模型越是聪明,电表转得越快 "。

微软首席执行官萨提亚 · 纳德拉在一次播客节目中道出当下美国人工智能产业的尴尬现状。他说,微软不缺芯片,缺的是电力供应和现成的数据中心,导致大量芯片只能 " 躺着睡觉 "。

为了堵住缺口,美国开始加速建设天然气发电站,并重新打起核能的主意。然而,问题又来了:电即便发得出,也未必送得到。数据中心用电必须经过发电、输电、配电的完整流程,而长期以来美国输电网建设缓慢,审批复杂,加之土地高度私有化,协调一个项目往往比训练一个模型还慢。

更尴尬的是,数据中心的建设周期通常短于电站和输电线路。结果就是,新服务器已经上线,电还在路上。如今,美国电网系统连吸纳新的发电站都吃力,更别说大规模并网新的数据中心了。未来几年,美国一些地区出现阶段性用电紧张、新兴产业发展先被电力 " 卡脖子 " 很可能是大概率事件。

在这种背景下,OpenAI、谷歌等人工智能头部实验室集体走上了一条过去难以想象的道路:绕过公共电网,在数据中心园区里自建燃气发电厂。专家普遍认为,这种局部的 " 自救式发电 " 解决不了整体的系统性问题。

归根结底,美国并非真的缺电,而是现有电网系统老化、扩建进程缓慢,完全跟不上人工智能指数级增长的算力所需电能。当算力成为新一代基础设施,电力正从公共资源变成人工智能公司必须自主掌控的核心能力。

(图片来源:网络)

评论
大家都在看