AI 时代,被 GPU 抢尽风头的 CPU,或许正在悄悄迎来一场属于自己的爆发。
据追风交易台,5 月 5 日,瑞银全球研究团队发布了一份针对美国半导体行业的深度研报。面对投资者关于 " 代理式 AI 将如何影响服务器 CPU 市场 " 的密集提问,分析师 Timothy Arcuri 等人通过一系列行业专家访谈并结合自下而上和自上而下两套模型,得出了一个明确的结论:
市场严重低估了 AI 时代 CPU 的价值。服务器 CPU 的潜在市场规模(TAM),将从 2025 年的约 300 亿美元,增长至 2030 年的约 1700 亿美元,五年涨幅接近 5 倍。
在过去两年的 AI 狂热中,GPU 抢走了所有的聚光灯。但随着 AI 从 " 单纯的对话生成 " 进化为 " 自主执行任务的代理(Agent)",算力的瓶颈正在悄然转移。
代理式 AI 重塑算力格局:从 "GPU 主导 " 到 "CPU 回归 "
要理解 CPU 市场的爆发,首先要理解代理式 AI 与传统 AI 的工作负载差异。
在传统的 AI 训练和基础推理阶段,GPU 是绝对的主力。如果把 AI 算力比作一个工厂,GPU 就是流水线上不知疲倦的工人,而 CPU 则是负责分配任务的经理。在传统模式下,一个经理(CPU)可以轻松管理多个工人(GPU)。
但代理式 AI 改变了游戏规则。代理式 AI 不仅需要生成文本,还需要进行任务编排、工具调用(例如在沙盒虚拟机中执行代码)、文件检索等。这意味着 " 经理 " 的工作量呈指数级上升。
分析师在专家访谈中获取了极具冲击力的数据:
工作量重心的转移: 专家指出," 在传统的 AI 工作负载中,70-80% 的算力消耗在推理本身(GPU)上;但在代理式推理中,这个比例反转了,70-80% 的工作量转移到了 CPU 上。"
核心配比的暴增: 传统的 AI 训练中,每个 GPU 通常只需配备 8-12 个 CPU 核心;在基础推理中,需要 16-24 个核心;而在代理式 AI 中,每个 GPU 需要配备 80-120 个 CPU 核心。 这相当于,同样一颗 GPU,在智能体场景下需要的 CPU 核心数是传统训练场景的5-10 倍。
并发任务的压力: " 一个代理(及其衍生出的每一个子代理)可能需要 1-4 个 CPU 核心,而一个复杂的任务可能需要生成 10-100 个子代理。"
这种底层逻辑的转变,直接打破了过去 " 重 GPU、轻 CPU" 的算力架构,为 CPU 市场打开了巨大的增量空间。
1700 亿美元的海量市场
基于上述逻辑,该行分析师对服务器 CPU 的总潜在市场(TAM)进行了重新测算。结果显示,到 2030 年,该市场规模将达到约 1700 亿美元。
这个庞大的数字是如何得出的?分析师采用了 " 自下而上 " 和 " 自上而下 " 两种方法进行交叉验证:
1. 自下而上(Bottom-up)测算: 分析师基于美国超大云服务商(Hyperscalers)的加速器模型预测,到 2027 年,市场将出货约 2300 万个加速器(XPU)和约 1000 万个头节点 CPU。随着代理式 AI 的发展,到 2030 年,加速器出货量将达到约 4000 万个。 更重要的是,CPU 与 GPU 的配比率将从目前的 1:4,逐渐向 1:2 甚至 1:1 靠拢。此外,由于 AI 应用需要更高核心数和更高频率的芯片,AI CPU 的平均售价(ASP)将显著提升。例如,英伟达的 144 核 Grace CPU 定价可能在 3000 至 4000 美元之间。量价齐升之下,仅 AI CPU 市场的规模就将达到 1250 亿美元。
2. 自上而下(Top-down)测算: 分析师参考了英伟达对 2030 年 AI 总潜在市场(3 万亿至 4 万亿美元)的预测。推算出 2030 年将有约 4000 万个 XPU 出货。假设每个 XPU 的平均 ASP 提升至 3000 美元,结合 1:1 或 2:1 的 CPU 配比率,同样推导出 AI CPU 市场规模在 1200 亿至 2000 亿美元之间。
分析师将未来的 CPU 市场划分为三个核心板块:
传统服务器市场: 保持稳定增长,预计到 2030 年出货量约为 4400 万台。
AI 头节点(Head Nodes): 与 GPU 机架捆绑,主要负责任务编排和优化 GPU 利用率。
AI 独立机架(Standalone): 纯 CPU 服务器,专门用于处理代理式 AI 的工具调用和子代理并发任务。

市场的饼做大了,关键是怎么分。
分析师明确给出排名:ARM 是服务器 CPU 侧最大受益者,其次是 AMD,再次是英特尔——但三者均将受益。
ARM:份额从 15% 冲向 40-45%
2025 年,ARM 架构在服务器 CPU 市场的单位份额约为 15%。报告预计,到 2030 年,这一数字将升至40-45%;若以收入口径计算,由于 AI CPU 的平均售价(ASP)更高,ARM 的收入份额将进一步达到50-55%。
ARM 的优势在哪里?
该行援引专家观点:ARM 架构功耗效率高出约 30%,内存效率高出约 20-30%,且凭借更小的核心设计,在延迟和成本上具备明显优势。更关键的是,英伟达 Grace、AWS Graviton 5(192 核)、谷歌等头部超大规模云厂商的自研 CPU,几乎清一色采用 ARM 架构。
该行预计,到 2030 年,ARM 将占据头节点 CPU 市场 75% 以上的份额。
但 ARM 也有短板。报告指出,ARM 传统上是单线程架构,同步多线程(SMT)能力是近年才逐步开发的功能;在高核心数场景下,核心间干扰和软件兼容性问题依然是挑战;此外,生态系统成熟度仍有待提升,部分软件栈的完善可能要到 2028 年前后。
基于上述判断,分析师将 ARM 的 12 个月目标价从 175 美元上调至245 美元。截至报告发布前一日(5 月 4 日),ARM 股价报 203.26 美元,维持 " 买入 " 评级。

AMD:高核心数 + 多线程,AI 最佳拍档
AMD 的优势在于高核心数和多线程能力,这与智能体 AI 对 CPU" 又要快、又要多 " 的需求高度契合。
报告援引 AMD 在 2025 年 11 月分析师日的表态:AMD 预计服务器 CPU 市场将从 2025 年的 260 亿美元增长至 2030 年的约 600 亿美元,其中 AI 驱动的 CPU 将占 2030 年市场的约 50%;AMD 预计自身在总市场的份额将超过 50%。
分析师目前对 AMD 2030 年的 EPS 预测为 25.27 美元,若市场按预期演进,修正后的 2030 年 EPS 可达 28.14 美元,上行空间约 +11%。

英特尔:基础盘稳固,但追赶压力大
英特尔的处境相对复杂。
在传统服务器市场,x86 架构仍将保持约 85% 的份额,英特尔在工具调用、存储优化等特定工作负载上仍具优势。但在 AI 头节点市场,英特尔的存在感正在被 ARM 快速压缩。
瑞银指出,英特尔正寄望于 "Coral Rapids" 产品线来缩小与 AMD 和 ARM 的差距,但目前来看,AMD 和 ARM 在 AI CPU 市场的定位更为有利。
不过,英特尔也有一张独特的牌:PC 端的溢出效应。随着智能体 AI 将更多任务推向本地设备执行(Anthropic 的 Claude Code 已在采用这一策略),PC 升级周期有望被催化,英特尔将从中受益。
该行对英特尔 2030 年 EPS 的修正上行空间约为 +7%,是三家中最低的。

并非所有 CPU 都一样:延迟 vs 吞吐量的取舍
报告还深入拆解了一个容易被忽视的细节:智能体 AI 对 CPU 的需求,并不是简单地 " 核越多越好 "。
超大规模云厂商在硬件选择上面临一个根本性的取舍:
高核心数 CPU:总吞吐量高,能效比好,但时钟频率低,延迟表现较差,且软件扩展能力有限(大多数软件无法高效利用数百个核心)
低核心数、高频率 CPU:延迟低、响应快,适合 " 头节点 " 角色(负责编排调度、优化 GPU 利用率)
实际部署中,超大规模云厂商倾向于采用 " 头节点 + 大规模计算节点 " 的分层架构:前者负责低延迟的编排控制,后者负责高吞吐量的并行执行。
这意味着,能提供宽泛 SKU 组合(覆盖不同核心数、频率和功耗档位)的厂商,比只押注单一 " 最强 " 配置的厂商更有竞争力。
瑞银还指出,超大规模云厂商的采购决策核心指标不是峰值性能,而是每瓦特可处理的事务数(transactions per watt),内存配置是首要设计变量。

云端还是边缘?一个悬而未决的变量
分析师另外提出了一个值得关注的不确定因素:云端与边缘的计算分工。
早期智能体部署几乎完全依赖云端,但越来越多的系统设计开始将计算推向本地设备—— 5 到 10 个并行任务可以直接在本地文件和数据上运行,既减少了延迟,又节省了云端算力成本。
瑞银援引专家估算:本地执行的扩展,可能将云端智能体工作负载所需的 CPU 容量减少约25%。
这意味着,智能体 AI 对数据中心 CPU 的拉动倍数,最终可能从 5-8 倍压缩至约 4 倍。但与此同时,PC 端的 CPU 需求将被同步拉升,AMD 和英特尔均将受益。



登录后才可以发布评论哦
打开小程序可以发布评论哦