半导体产业纵横 4小时前
AI并非“泡沫”,而是产业趋势
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_caijing1.html

 

云服务商的资本支出(Capex)已经达到了无法再用 " 显著增长 " 来形容的程度。排名前八的云服务商的投资额将从 2021 年的 1451 亿美元增长到 2026 年的 6020 亿美元,增长超过四倍。这种增长速度简直令人难以置信。

即便如此,市场中仍不乏对这一主流避险配置的质疑声:" 又是一场泡沫 "" 迟早会破裂 " 之类的论调甚嚣尘上。但此类说法毫无事实依据,并非单纯的主观臆断,本质上更是对现实的刻意回避。究其根源,当下的投资规模扩张,并非由经济周期、市场情绪或泡沫化趋势驱动,而是源于物理定律的底层支撑 —— 海量的算力需求。

核心关键在于,生成式人工智能的计算负载绝非 " 搜索功能的延伸 ",而是属于更高维度的 " 学习与推理 " 范畴。正如后文将详细阐释的,谷歌搜索的算力架构以 CPU 为核心,而 ChatGPT 的推理环节则以 GPU 为核心展开大规模矩阵运算,其所需的计算量更是前者的 1 万至 10 万倍。

换言之,云服务厂商的算力投入并非出于主动选择,而是源于行业竞争的必然要求 —— 若不跟进布局,便会在赛道中陷入落后。对于当下的云平台而言,无法支撑生成式人工智能的运行,就等同于丧失核心价值。也正因如此,这场算力投资的浪潮不仅不会止步,更具备了不可逆的行业必然性。

云投资正以惊人的速度增长

图 1 呈现了全球头部八大云服务商的资本投入趋势,这八家企业分别为亚马逊(AWS)、微软(Azure)、谷歌云(Google Cloud)、Meta(原 Facebook)、甲骨文(OCI)、阿里云、腾讯云与字节跳动。

图 1:排名前 8 的云服务提供商的资本投资情况。来源:根据 TrendForce 数据制作  

正如本文开篇所述,这八家企业的资本开支规模将从 2021 年的 1451 亿美元攀升至 2026 年的 6020 亿美元,增幅超四倍。这样的资本投入已非单纯的 " 增长 ",而是迈入了加速扩张的阶段。

尽管 2022-2023 年期间其资本开支出现短暂回落,但这绝非可以放松警惕的信号。从 2024 年开启的回升态势能够清晰看出,头部云服务商的布局已再度 " 加码升级 ",而这一投资拐点恰好出现在 OpenAI 推出 ChatGPT 之后。

换言之,这些企业布局生成式人工智能相关投资,并非只因它是被追捧的 " 下一个金矿 ",更在于其作为行业游戏规则改变者,彻底重构了云计算基础设施的底层需求。

驱动云计算领域投资扩张的因素多元且复杂:数据中心建设、土地储备、电力配套、冷却技术、网络架构、存储能力、安全体系 …… 但贯穿所有维度的核心逻辑,始终是爆发式增长的计算需求。算力需求的指数级攀升,直接推动了全产业链各环节成本的同步上涨,本质而言,云计算行业的这场投资增长,就是一场对海量算力资源的争夺战。

当下市场对算力的极致需求,早已无法用传统网络与搜索服务的扩容逻辑来解释。生成式人工智能对云计算的要求,并非简单的 " 再添一个胃 ",而是倒逼整个行业重构算力 " 消化系统 ",打造出足以承载海量需求的超大规模算力底座。

Google 搜索和 ChatGPT 相似但不相同

在此,需要纠正一个极具误导性的核心认知偏差:将谷歌搜索与生成式人工智能简单等同为 " 用户提出问题、平台给出答案 " 的同类工具。

如图 2 所示,二者的用户操作表层逻辑看似高度相似,交互形式几乎别无二致。但现实是,坐拥全球超 30 亿用户的谷歌搜索,正面临用户向 ChatGPT 等生成式人工智能产品迁移的趋势,而后者的用户规模也已突破 10 亿量级,持续快速扩张。

图 2:谷歌搜索与 ChatGPT 5 用户提问行为示例。 

自去年开始使用 ChatGPT 付费版后,个人便极少再使用谷歌搜索,核心原因正是前者的使用体验更为高效便捷。而这一体验上的差异,正被全球越来越多的用户感知,也直接推动了生成式人工智能用户规模的持续攀升。

更为关键的是,即便用户提出的是完全相同的问题,谷歌搜索与 ChatGPT 等生成式人工智能在云端完成的底层处理逻辑,却有着本质区别。

这一核心差异可通过图 3 清晰呈现:谷歌搜索依托以 CPU 为核心的索引式检索架构,而 ChatGPT 的推理过程,则是以 GPU 为核心展开的大规模矩阵运算。从算力消耗来看,谷歌搜索单轮处理的浮点运算量(FLOPs)约为 10 亿至 100 亿次,ChatGPT 的推理运算量则达到 10 万亿至 1000 万亿次,二者的算力需求相差 1 万至 10 万倍。

图 3:谷歌搜索与 ChatGPT 5 算力及处理成本对比。 

不仅如此,ChatGPT 单次处理所需的服务器耗时,是谷歌搜索的 10-100 倍;能源消耗与碳排放,均为谷歌搜索的 10-200 倍;综合成本更是达到谷歌搜索的 50-2000 倍,算力与资源消耗的差距呈指数级拉大。

简言之,生成式人工智能绝非所谓的 " 高端版搜索 ",其背后是完全不同的计算逻辑,且承载着远为繁重的算力负载。正因如此,生成式人工智能的规模化落地,意味着云端处理的计算单元必须向超大规模升级 —— 这并非依靠价格谈判、市场推广就能解决的商业问题,而是从物理底层提出的硬性要求:既需要 AI 半导体(如 GPU)、高带宽内存(HBM)等核心硬件支撑,也离不开电力、冷却系统、网络架构的配套升级,甚至对底层的布线、封装技术都提出了全新要求。

市场中常有一种论调:" 技术效率终将提升,算力需求自然会下降。" 不可否认,AI 领域的技术效率确在持续优化,但算力需求的下降速度,早已跟不上生成式人工智能的应用边界拓展、使用频次提升与性能迭代速度。即便单轮计算的算力消耗因效率提升而降低,若社会层面的生成式人工智能使用频次增长十倍,整体算力需求仍会同步攀升。更何况,随着输入输出的文本长度持续增加,图像、视频类推理场景的落地应用,算力需求还将迎来新一轮的爆发式增长。

换言之,云计算行业的持续高投入,并非源于市场的 " 盲目热情 " 或 " 投资过热 ",而是算力需求发生结构性变革的必然结果。对头部云厂商而言,一旦停止算力布局,就意味着直接确认市场竞争的落后态势。推动其持续加码投资的,从来不是敢于冒险的勇气,而是源于行业竞争的深层恐惧 —— 对错失算力浪潮、陷入竞争被动的恐惧,才是这场算力投资竞赛的核心驱动力。

人工智能与以往的泡沫经济有着本质区别

由此引出核心问题:当前这场围绕生成式 AI 的云计算投资热潮,真的是一场泡沫吗?

答案很明确:将当前现象简单斥为 " 泡沫 " 是完全错误的,核心原因在于,过去的泡沫与当前热潮的 " 需求性质 " 存在本质差异。可通过定量分析清晰佐证这一点。

图 4 呈现了全球半导体出货量及其同比增速趋势,清晰勾勒出 Windows 95 泡沫、IT 泡沫与内存泡沫的完整轨迹。从数据可见,过往的各类泡沫均呈现 " 快速增长后骤降 " 的特征——这背后的核心逻辑是,当时的需求严重依赖 " 暂时性增长 " 与 " 库存调整 ",缺乏持续的底层支撑。

图 4:全球半导体出货量及较上年增长率。来源:作者根据 WSTS 数据制作  

图 5A 通过对比表形式,呈现了 Windows 95 泡沫、IT 泡沫、内存泡沫及当前 AI 热潮(暂统称 " 热潮 ")从第 N 年到第 N+3 年的同比增速变化;图 5B 则进一步量化了这一波动:Windows 95 泡沫期间增速达 41.7%,随后骤降至 -8.6%;IT 泡沫增速 36.8%,后续跌至 -32.0%;内存泡沫增速 13.4%,继而滑落至 -12.0%。这种 " 繁荣后迅速萧条 " 的剧烈波动,正是过往泡沫的典型特征。

来源:作者根据 WSTS 数据制作  

与之形成鲜明对比的是生成式 AI 相关需求的增速表现:2023 年同比增速为 -8.1%,2024 年回升至 19.7%,2025 年预计达 22.5% ——这意味着 2024 年及 2026 年将持续保持正增长。正如众多行业专家论证的那样,直至 2030 年,生成式 AI 相关需求大概率不会出现负增长。

简而言之,当下正在发生的并非 " 泡沫 ",而是一场单一、庞大且具备强大惯性的 " 结构性趋势 "。

此次趋势与过往泡沫的核心差异,在于需求来源的本质不同:过往需求多源于个人电脑普及、智能手机更新换代等 " 替换购买浪潮 ",属于阶段性的消费端需求爆发;而当前的需求核心,是计算基础设施的刚性升级需求。更关键的是,生成式 AI 并非 " 销售产品即完成闭环 " 的传统业态——它将渗透到社会经济的方方面面,融入各类服务场景,整合至搜索与办公系统,成为企业生产力提升的核心基石。

由于这一核心基石建立在极其庞大的计算量之上,云计算投资便不再是 " 经济繁荣期的可选配置 ",而是成为支撑社会高效运转的 " 基础结构 "。从这个意义上讲,那些将生成式 AI 相关投资斥为 " 泡沫 " 的观点,本质上是对这一结构性变革的逃避。这种 " 基础设施级的算力需求爆发 ",是过往教科书式的泡沫案例中从未出现过的全新形态。

到 2030 年,投资将持续增长

基于这一逻辑,2030 年之前,相关投资的持续增长将是大概率事件。那么,头部八大云服务厂商的资本支出最终将增长至何种规模?图 6 呈现了这八大厂商数据中心投资的预测情况,并划分了悲观、基准、乐观三种情景。

图 6:八大云服务提供商的数据中心投资预测。来源:TrendForce 新闻稿及作者预测  

值得注意的是,即便在最悲观的情景下,投资规模仍将保持持续增长——核心原因在于,生成式 AI 相关的算力布局已成为行业 " 竞争入场券 ",而非可选择性的 " 奢侈品 "。

这正是生成式 AI 时代云计算竞争的残酷之处:对云服务厂商而言,停止投资并不会带来 " 利润率提升 ",反而会直接导致 "AI 性能落后、客户流失、平台价值崩塌 "。换句话说,放缓或停止算力相关投资,并非理性的商业决策,更像是对市场竞争的主动认输。

事实上,相关投资的退出成本极高:GPU 与高带宽内存(HBM)等核心硬件价格昂贵,电力供应、散热技术的升级需要长期投入,且整个产业链的供应链体系错综复杂。即便面临诸多挑战,投资仍在持续推进——因为市场已形成明确的竞争格局:" 缺乏足够算力支撑的企业,将直接被市场淘汰 ",甚至来不及进入投资回报率(ROI)的考量阶段。

归根结底,当前头部云厂商的持续投资,已不再是 " 购买未来的不确定性 ",而是 " 守护当前市场地位 " 的刚性需求。只要这一 " 算力决定竞争力 " 的市场结构不发生根本改变,到 2030 年投资持续增长的趋势,似乎也成为了必然结果。

数据中心逻辑电路市场正在快速扩张

云计算投资的增加将直接推动半导体市场的扩张。特别是数据中心逻辑芯片,未来市场必将迎来增长。

图 7 显示了数据中心逻辑芯片市场(2024 年至 2030 年)的预测。GPU 市场预计将从 1000 亿美元增长一倍以上至 2300 亿美元,而 AI ASIC 市场预计将增长九倍以上,从 90 亿美元增长至 840 亿美元。

图 7:数据中心逻辑预测(2024 → 2030 年)。来源:作者根据 Yole Group 的预测数据制作  

值得注意的是,生成式人工智能的发展不会止步于英伟达的 GPU。超大规模数据中心运营商不愿依赖单一供应商,因为这意味着他们将失去价格谈判能力。他们倾向于采用专用于特定应用的人工智能 ASIC 芯片,以 " 提升性能而非降低性能,并降低成本 "。其中许多芯片由博通公司设计。

换句话说,人工智能半导体市场不会是 "GPU 独占的黄金时代 ",而是会转型为 "GPU 仍将占据主导地位,而 AI ASIC(博通)将发展壮大,成为市场两大支柱 " 的市场格局。即使 GPU 继续扮演主导角色,AI ASIC 也必将增长。这就是数据中心逻辑市场的现实。

尽管内存供应短缺,但其价格仍在持续飙升

图 8 显示了生成式 AI 将最积极消耗内存的领域。DRAM 市场预计将从 2024 年的 970 亿美元翻一番,达到 1940 亿美元,其中 HBM 市场将达到 980 亿美元。

图 8:存储器市场预测(2024 → 2030 年)来源:作者根据 Yole Group 的预测数据制作

这意味着到 2030 年,HBM 将占据 DRAM 市场的一半份额。这不仅是市场扩张,更是内存行业主导地位的转变。

此外,图 9 显示,DRAM 和 NAND 的现货价格预计将在 2023 年至 2026 年间上涨。以往 " 价格上涨,产量增加,价格趋于稳定 " 的常识已不再适用。提高 HBM 的产量并非易事,提高良率也面临挑战,封装也是一个重要因素。设备和材料方面都存在诸多限制,供应难以满足需求。

图 9:DRAM 和 NAND 现货价格上涨。来源:作者根据 TrendForce 数据制作  

此外,内存制造商正将重心转向人工智能服务器内存,因为这类内存利润更高。这将减少用于个人电脑和智能手机的通用内存供应,并推高价格。换句话说,人工智能的普及将导致内存市场长期短缺和价格高企。

简而言之,内存短缺问题将持续存在,价格也将持续上涨。这并非 " 特殊且暂时的现象 ",而可能成为人工智能时代的新常态。

台积电的主要盈利产品从 N5 转向 N3

最能有效利用这股 " 人工智能浪潮 " 获利的半导体制造商很可能是台积电。图 10 显示了台积电按制程节点划分的销售额趋势,直观地展现了其主要盈利产品从 N7 到 N5,再到 N3 的转变过程。

图 10:台积电按节点划分的季度销售额。来源:作者根据台积电历史运营数据制作

图 11 显示了各节点晶圆投入量的变化趋势。从图中可以看出,未来只有 N5、N3 和 N2 节点的投入量会增长,而其他节点的投入量则呈下降趋势。这并非一句空洞的 " 前沿技术很重要 ",而是事实:只有前沿技术的投入量在增长。换句话说,台积电已经转型为一家完全依靠前沿技术盈利的晶圆代工厂。

图 11:台积电各节点季度晶圆投入量(2025 年第四季度预测)。来源:Claus Aasholm,以及作者估算  

生成式人工智能需要海量的计算,这需要大量的高性能人工智能半导体,而这又需要庞大的先进工艺产能。台积电是唯一能够满足这一需求的公司。这种简单的因果关系正是半导体行业发展的驱动力。

N3 的主导地位从苹果转移到英伟达和博通

此前,苹果一直是台积电最大的客户,推动着台积电尖端工艺的发展。然而,这种情况正在发生改变。

图 12 和图 13 显示了台积电按公司划分的 N3 晶圆投入预测。数据显示,英伟达和博通的投入量将在 2025 年至 2026 年间增长,超过苹果。

图 12:台积电对各公司 3nm 晶圆投入量的预测(每月 1000 片晶圆)。来源:TrendForce 

图 13:台积电对各公司 3nm 晶圆投入量的预测。来源:TrendForce 

这不仅仅关乎客户排名。从尖端半导体的发展史来看,这标志着一个时代的转变:从智能手机处理器引领潮流的时代,过渡到人工智能半导体主导尖端技术的时代。

苹果利用尖端技术提升用户体验。英伟达和博通则利用尖端技术称霸云计算领域。二者的区别显而易见。人工智能半导体并非 " 卖出去就完事 ",它们将作为 " 持续运行的基础设施 " 而广泛应用。换句话说,对尖端工艺的需求具有极强的粘性。

N3 将成为台积电的主要盈利产品,这不仅反映了台积电的实力,也反映了人工智能如何重塑了尖端产品的需求结构。

同样的现象也可能出现在台积电的 N2 芯片上,台积电将于 2025 年第四季度开始量产 N2 芯片。苹果或许会率先使用 N2 芯片,但不出六个月,英伟达和博通很可能就会占据主导地位。换句话说,苹果将成为打造最先进生产线的先驱,随后英伟达和博通将成为市场主导者,为台积电的利润做出巨大贡献。

真正的瓶颈在于 CoWoS

然而,人工智能半导体的发展存在许多瓶颈,其中最严重的是 2.5D 封装(如 CoWoS)的产能。

图 14 显示了 2.5D 封装的产能趋势。人工智能半导体无法通过先进工艺节点制造的 " 单芯片 " 实现,必须与 HBM 结合才能形成系统。CoWoS 对此至关重要,只要这种产能不足,人工智能半导体的供应就将持续短缺。

图 14:2.5D 封装容量趋势。来源:TrendForce 

换句话说,当前人工智能市场的制约因素最终将归结为一点:"CoWoS 不足 "。

这里有一个与直觉相悖的预测:一旦 CoWoS 的限制解除,投资会趋于平静吗?答案恰恰相反:投资将会增加。

这是因为人工智能半导体目前供应受限,即使云服务提供商想要购买也无力承担。一旦供应限制解除,此前被抑制的投资将会爆发。云服务提供商将抓住机会大量采购他们一直等待的半导体,建设人工智能数据中心,进一步加剧竞争。投资非但不会 " 趋于平静 ",反而极有可能 " 进入下一阶段 "。

生成式人工智能创造的不是泡沫,而是一种趋势。这正在半导体行业引发一场 " 结构性变革 "。而且,这场变革是不可逆转的。

评论
大家都在看