吴晓波频道 10-08
“5年烧掉3万亿美元”,越来越喂不饱的AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

" 当前一年的巨头们的 AI 基建开支,已超过建设信息高速公路 20 年总开支的一半。"

文 / 巴九灵

"(原本)或许借助 10GW 的计算能力,AI 能够攻克癌症的治疗方法。但若受限于计算资源,我们将被迫做出优先级选择——谁都不愿面临这种抉择。"

GW 是一个功率单位,1GW 相当于 10 亿瓦特,与一次强闪电的瞬时功率相当,能点燃 1 亿盏 LED 节能灯泡,可供一个百万人口的中型城市提供日常所用的电力。

当它被用于衡量算力时,指代的是该计算所消耗的能量。

在 OpenAI 创始人奥特曼看来,10 倍这样的能量,还有机会还能为人类攻克癌症,前提是,让这股能量成为 AI 的食材。

人工智能领域总是充斥着 " 如果 …… 我们就不能 ……" 般奥特曼式的恐慌,与股票市场 FOMO(Fear Of Missing Out)错失恐惧症类似,尽管他们已经走在了时代前沿,却依然害怕被时代所抛弃。

而能让他们安心的,唯有利用钞能力不断投入再投入,一场由全球巨头公司掀起的算力基建大战就此拉开帷幕。

奥特曼发表博文的前一天,英伟达宣布将向 OpenAI 投资 1000 亿美元,用于部署大规模算力中心,训练下一代模型。

OpenAI 与 NVIDIA 官宣合作,图源:NVIDIA 英伟达

1000 亿美元相当于 7100 亿人民币,A 股 5400 家上市公司里,只有 15 家的市值高于这个数字。

这还仅仅是个开始。摩根士丹利预测,未来 5 年全球用于支持人工智能的数据中心的支出将达到约 3 万亿美元,这个数字和法国 2024 全年的 GDP 相当。

在奥特曼的计划里:" 我们的愿景很简单:建造一座每周都能生产 1GW 算力的工厂。这将是史上最酷且最重要的基础设施项目。" 对此他给出的解释是:" 算力永远不够用,只希望未来不会像现在这么捉襟见肘。"

全球陷入算力饥渴症

算力即计算能力,每一次下达指令、调用模型,都要进行大量计算。过去,所有的计算在一台机器上完成,直到云计算出现。其本质,是把大量零散的算力资源打包成一个资源池,实现动态分配。

于是,承载算力的实体从单一设备里的芯片,变成了一个个安装了大量机柜、机柜里接满芯片和服务器的数据中心。

这些日夜不休运作的机房里,可能处理着着千百里之外一次次 DeepSeek 等大模型的调用,它们是 AI 时代的水和电,是新型的基础设施。

对人工智能领域而言,每年都是一个 " 元年 ",今年则是 AI 算力需求爆发真正的元年。

新疆伊吾云上丝路融合算力中心

宏观地看,算力产业链可划分为上、中、下游:上游的核心是 AI 芯片和服务器;中游是资源和转换器,包括数据中心、云计算平台等算力基础设施的建设;下游即各领域的 AI 应用。

而随着下游 AI 应用大爆发,算力需求同步水涨船高。据国信证券研报,今年一季度微软 Azure AI 基础设施处理超 100 万亿 Token,同比增长 5 倍;国内豆包大模型 tokens 使用量在一年内增长 137 倍,月均复合增长率达 43%。

应对需求的同时,企业继续训练大模型也需要持续消耗大量算力,尤其顶级大模型的迭代,背后往往是算力消耗的指数级增长。据国泰海通研报测算,同等训练时长下,ChatGPT-4 对于算力的需求是 GPT-3 的 446 倍。

这同样只是开始,华为在刚刚发布的《智能世界 2035》报告里预测:到 2035 年,全球算力需求会达到现在的 10 万倍。

但算力的供给却持续紧张。算力供给主要依赖两件事:一是芯片,二是能源。前者看,英伟达占据了全球 AI 芯片市场 80% 的份额,但产能分布不均和地缘政治等因素让这家公司无法喂饱全世界的数据中心。投资机构 Wedbush 近期调查发现,英伟达 B200 芯片在亚洲就长期处于缺货状态。

后者看,算力中心是 " 电老虎 ",但全球供电能力已经捉襟见肘。彭 · 博社近期报道指出,到 2035 年,美国数据中心的电力需求将翻一番,占总需求的近 9%,这或将是自 20 世纪 60 年代空调普及以来美国能源需求的最大增幅。

供需失衡让用电成本水涨船高,彭博发现,在美国部分算力产业密集的区域,拔地而起的数据中心让附近居民区的电费比五年前上涨了 267%。

对算力行业的影响,不仅是电价上涨将不断推高算力成本,而且如果电力持续短缺,可能导致芯片滞销或已售出的芯片闲置,直接拖累算力的供给。

美国数据中心电力消耗与预测,图源:Cisco, IEA, Goldman Sachs Research

缺钱也是原因之一。贝恩报告指出,若想满足 2030 年的 AI 运算需求,全球 AI 行业每年得有 2 万亿美元的营收进帐,但即使把 AI 相关成本效益算进去,资金缺口仍将高达 8000 亿美元。

很多算力不足的企业、机构只能向云计算平台、运营商或第三方数据中心 " 借 " 算力,甚至形成了一个新兴产业:算力租赁。据海外咨询机构 Verified Market Research 预测,到 2033 年全球算力租赁市场规模将激增至 128 亿美元,年复合增长率高达 13.4%。

但如此巨大的缺口,千亿美元级别的投入还远远不够。

" 卖方市场 " 下算力抱团

紧缺的供给和霸占上游的优势,让全球算力市场成了由英伟达说了算的 " 卖方市场 "。与此同时,它也通过一系列动作,不停强化行业渗透力。

花 1000 亿美元帮 OpenAI 造数据中心,背后的算盘也不难理解,建设 10GW 的算力中心,要花 3000 — 4000 亿美元购买英伟达的芯片和系统,相当于投出去的钱又回到了自己手里,还强化了 OpenAI 对英伟达芯片的依赖。

此前,9 月初,英伟达掏出 50 亿美元买下英特尔近 5% 股份,意在抢占 AI PC 市场;而过去两年它累计投资超过 80 家 AI 初创公司,提前和下一代有潜力的 AI 应用深度绑定。

以英伟达和 OpenAI 为代表,美国的 AI 算力基建早已成为科技巨头的战场,头部企业从各自为营转向抱团发动 " 永动机 " 模式。

从烧钱规模看,美国大厂今年放话出去的千亿级算力项目已经不止一个:

1 月,OpenAI、甲骨文、软银共同宣布将投资 5000 亿美元在美国建设算力中心,命名为 " 星际之门 " 计划,成为史上资金规模最大的 AI 基建计划;

" 星际之门 " 人工智能数据中心建设现场

4 月,英伟达和马斯克的人工智能公司 xAI 共同宣布投资人工智能投资基金 MGX,整体规模预计达到 1000 亿美元——这一基金去年由微软和贝莱德推出,旨在筹集资金在全球建设数据中心以及支持其支持能源需求;

9 月,OpenAI 跟甲骨文签订了期限 5 年、价值 3000 亿美元的算力采购合同。

此外,亚马逊、微软等一众巨头也斥资上百亿美元,正在世界各地如火如荼地建设数据中心。

据《华尔街 · 日报》报道,预计美国 2025 年 AI 数据中心支出规模或达 5200 亿美元(约合 3.7 万亿元人民币)。

1993 年,美国宣布建设为期十年的信息高速公路计划,计划总支出为 4000 亿美元,去掉通货膨胀的影响,这笔钱现在的价值在 9000 亿美元左右。这意味着,当前一年的巨头们的 AI 基建开支,已超过建设信息高速公路 20 年总开支的一半。

巨大的投入背后,还有极致的抱团。

以 OpenAI、英伟达和甲骨文三者为例, OpenAI 前脚和甲骨文签订 3000 亿美元、为期五年的算力服务合同,后脚接受了英伟达承诺 1000 亿美元的算力基建投资。

OpenAI 与甲骨文达成交易新闻,图源:TechCruch 官网截图

根据协议,OpenAI 将从 2027 年开始向甲骨文购买 4.5GW — 5GW 的算力,而这需要上百万台英伟达最先进 GPU 支持,光是这部分硬件支出就上千亿美元。也就是说,英伟达投资 OpenAI 的 1000 亿美元,很大程度上会通过 OpenAI 向甲骨文采购云服务、甲骨文再向英伟达购买 GPU 的方式回流。

这种巨头结盟的模式,已从简单的商业竞争,上升到了生态规则的制定。

" 基建狂魔 " 的打法

20 世纪,美国曾通过控制全球石油资源一步步确立并维系了其世界霸权,今天,21 世纪的 " 算力大战 " 一如对石油的争夺。

牛津大学的研究团队调查了全球算力的分布情况,发现在 AI 时代真正拥有 " 算力主权 " 的国家,全世界仅 33 个,其中美国第一,中国大陆排名第二。

在海外巨头不知疲倦地烧钱搞算力基建时,大洋彼岸的中国也有自己的规划。

企业端在投入。

近期,阿里云 CEO 吴泳铭在云栖大会上对外宣布,未来三年,阿里将投入超过 3800 亿元,用于建设云和 AI 硬件基础设施,总额超过去十年总和。到 2032 年,阿里云全球数据中心的能耗规模将较十年前提升 10 倍。

此外,仅今年上半年,移动、联通、电信三大运营商的资本开支合计超千亿人民币,方向不约而同布局 AI 基建。中国移动称全年计划支出 1512 亿元,重点投向算力领域。

中国移动智算中心(哈尔滨),图源:国务院国有资产监督管理委员会

国际数据公司(IDC)近日发布的报告《全球人工智能和生成式人工智能支出指南》预测,中国 AI 投资五年复合增长率将达 25.7%,2029 年总规模预计突破 1114 亿美元。

技术攻关也在持续。相较于海外巨头 " 大力出奇迹 " 的砸钱模式,国产替代走出了一条 " 性价比 " 路线:

一是投入芯片研发,如华为、阿里云等头部企业正加速推出专门适配大模型训练的芯片,通过硬件结构设计,提升计算能力;

二是提高算力效率,最典型的是 DeepSeek。最近梁文锋担任通讯作者的 DeepSeek-R1 推理模型研究论文登上《Nature》,论文提到 DeepSeek-R1 训练使用了 512 块英伟达 H800 芯片。虽然 OpenAI 未披露消耗量,但市场普遍估计,GPT-4 训练使用约 25000 张性能更高的英伟达 A100 芯片。

而从更宏观的层面,中国正用另一种颇具本土特色的方式布局算力大战。这种打法,在国务院日前印发的《关于深入实施 " 人工智能 +" 行动的意见》里很明确:全国 " 一盘棋 " 布局。

根据《意见》,我们将通过顶层设计,把分散在全国各地的算力资源织成一张网络,通过统一调度来解决资源分配不均的问题。

比如,为了解决东部供给不足和西部算力资源闲置,推动将分散在不同地点的处理器连接起来形成算力集群,把西部的算力资源向东部地区转移;将西部地区算力中心用于高能耗的模型训练,东部地区的算力中心则用于能耗更低的推理。

这就是于 2022 年启动的 " 东算西数 " 工程,其出发点是为稀缺的算力分配优先级,以实现最大经济产出。

在安徽芜湖的数据中心集群 " 中华数岛 ",被称为 " 中国版星际之门 "。

" 中华数岛 "2022 年动工,现在有四个 AI 数据中心,分别由华为、中国电信、中国联通和中国移动运营,服务上海、杭州、南京等长三角城市。

" 中华数岛 " 上的华为云华东数据中心,图源:芜湖发布

它之所以被外媒称为 " 中国版星际之门 ",除了规模宏大之外,很大程度上也源于它同样具备政府搭台、企业唱戏的性质。对我们而言,这种打法并不陌生。

这个集群正是 " 东数西算 " 工程的一部分。" 东数西算 " 目前形成 8 个枢纽节点、10 个数据中心集群、覆盖 14 个省份,提供了全国约八成的智能算力。8 个枢纽节点中,有 5 个在西部地区,地广人稀、能源丰饶,解决了地和电两个大问题。

" 顶层设计 + 政企协同 " 的路径也意味着,中国的算力开始像水和电那样,具备公用事业性质。也正是这种公共性,促使国产 AI 在应用层形成了一种去中心化的创新环境和 " 小口深挖 " 的创业生态,医疗、金融、政务等各行各业的垂直 AI 应用百花齐放,走出了跟美国由头部通用大模型主导的完全不同的道路。

结语

AI 行业离实现 " 算力自由 " 还有很远,但已经投进去的钱能否带来预期的回报还需要更长的时间来验证。

环球交换机码头数据中心园区

但无论如何,已经没有任何一个国家、一个公司敢下牌桌。只是热潮之下,理性的声音正在浮现:算力战争,最终比拼的或许不全是烧了多少亿、堆了多少卡,更是应用的智慧、转化的效率与可持续的生态。

资本的洪流和情绪的起落之间,最好的办法,仍是找到一条利益共享、风险共担的技术演进之路。

参考资料:

1. 《算力租赁行业专题报告:Neocloud 引领算力租赁发展,国内市场发展可期》,国信证券

2. 《AI 多模态加速燃烧算力》,国泰海通证券

3. 《电力短缺如何可能阻碍英伟达的崛起》,经济学人

4. 《真有那么景气吗?》,围棋投研

5. 《7100 亿,黄仁勋梭哈了》,投中网

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

奥特曼 ai 人工智能 英伟达 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论