CES 现场,苏姿丰投下震撼弹:四年内 AI 算力将提升 1000 倍! 面对英伟达的封锁,AMD 不再隐忍,直接祭出 Helios「太阳神」机架与 MI455X 芯片,以单代性能暴涨 10 倍的「暴力美学」正面硬刚。从 Yotta 级计算宏图到 128GB 统一内存的 PC 怪兽,AMD 正用一场史无前例的算力狂飙,试图彻底重写 AI 世界的权力版图。
6 日是美国拉斯维加斯举办的消费电子展(CES)主旨演讲日,更是全球科技产业权力版图剧烈震荡的一天。
几个小时前,身着标志性皮衣的英伟达 CEO 黄仁勋刚刚走下舞台,留下了令竞争对手窒息的 Vera Rubin 平台和 Agentic AI 的宏大愿景,仿佛一位刚刚巡视完疆土的帝王。
然而,聚光灯并未就此熄灭。
之后,所有的目光转向了 AMD 的掌门人苏姿丰(Lisa Su)。
这位总是身着干练西装、在男性主导的半导体世界中杀出重围的女性,正准备在发布会上,向那个看似不可战胜的「绿色帝国」发起这一代最猛烈的冲锋。
这是算力世界「双城记」的缩影。
一边是英伟达,试图通过封闭的生态、极致的垂直整合构建起不可逾越的「围墙花园」,将数据中心变成只属于它的黑色方尖碑;
另一边是 AMD,试图通过结盟、开放标准和堆料极致的硬件,率领着包括 OpenAI、微软、Meta 在内的「复仇者联盟」,试图在铁幕上撕开一道口子。
这场发布会早已超越了摩尔定律的线性叙事。
AMD 在今天发布的除了芯片本身,更是一整套试图打破英伟达垄断的蓝图。
在深入解读 AMD 的突围之前,我们必须先审视那道横亘在 AMD 心头的巨大阴影——英伟达刚刚发布的 Vera Rubin 平台。
了解对手的强大,才能理解 AMD 此次反击的悲壮与战略价值。
以天文学家之名,封锁宇宙
就在 AMD 发布会开始前,黄仁勋展示了英伟达的下一代核武:Vera Rubin。
这个名字本身就充满了隐喻—— Vera Rubin 是证实暗物质存在的著名天文学家,而英伟达正试图掌控 AI 宇宙中那些「看不见」但决定一切的力量:数据流动的引力。
根据现场披露的信息,Vera Rubin 平台严丝合缝、甚至精密得令人窒息。
它由三个核心组件构成,每一个都直指 AMD 的要害:
( 1 ) Rubin GPU:这是英伟达的皇冠明珠。
虽然具体工艺细节被严格保密,但其配备了下一代 HBM4(高带宽内存)。这一事实,足以让整个行业颤抖。 HBM4 不仅仅是速度的提升,更是容量的质变,直接解决了大模型训练中的「内存墙」问题。
( 2 ) Vera CPU:这是英伟达基于 Arm 架构深度自研的怪兽。
它拥有 88 个自定义 Arm 核心和 176 个线程。 英伟达的意图或许是:通过超级芯片的设计,将 Vera CPU 与 Rubin GPU 在物理层面「焊死」在一起,逐步在高端 AI 服务器中剔除 x86 架构的 CPU(也就是 AMD 和 Intel 的主阵地)。
( 3 ) NVL144 机架:这是英伟达「数据中心即计算机」理念的终极形态。
单机架拥有 144 颗 GPU,通过 NVLink 6 互联,带宽达到了惊人的 260TB/s。 这是一台巨大的、单一的、吞噬电力的超级计算机。
英伟达传递的信息冷酷而明确:在未来的 AI 数据中心里,不需要插拔,不需要兼容,甚至不需要其他品牌的 Logo。你买的不是芯片,而是英伟达定义的「算力单元」。
Agentic AI 从训练到 Agent 的战略转向
更令 AMD 感到压力的是英伟达在软件叙事上的升级。
黄仁勋在演讲中不再只谈论训练,而是大谈特谈 Agentic AI。
当 AI 模型从单纯的聊天机器人进化为能自主规划、调用工具、解决复杂任务的智能体时,推理算力的需求将不再是线性的,而是指数级的。
一个 Agent 为了完成一个任务,可能需要在后台进行数千次的推理、反思和模拟。
英伟达声称,Rubin 平台能将推理 Token 的成本降低 10 倍。
这种「降维打击」般的承诺,直击了 OpenAI 等客户的痛点——他们每天都在为天文数字般的电费和算力成本发愁。
英伟达试图告诉市场:只有我的软硬件一体化平台,才能承载这种能够「思考」的 AI。
在这样的背景下,苏姿丰登场了。
她面对的是一个近乎完美的对手,一个不仅垄断了现在,还试图定义未来的帝国。
AMD 的绝地反击,Helios 与万倍增长的野心
灯光渐暗,大屏幕上亮起了 AMD 标志性的橙红色光芒。
PPT 的第一页是一句充满了防御性却又极具进攻意味的标语:「Solving the World's Most Important Challenges」(解决世界上最重要的挑战)。
苏姿丰没有回避房间里的大象,而是直接切入正题:算力需求的爆炸。
Yotta Scale:摩尔定律的墓志铭与复活
AMD 直接抛出了概念:Yotta Scale Compute(尧字节级计算)。
尧塔浮点运算(Yottaflop),代表每秒一亿亿亿次浮点运算(10² ⁴ FLOPS)。
目前,最强的 El Capitan 还是百亿亿次浮点运算(1.742 Exaflops,即 10¹ ⁸ FLOPS)
AMD 的目标是未来 5 年,10 万台 El Capitan 级超级计算机。
目前,世界最强超级计算机 El Capitan,占地约 697 平方米,相当于两个网球场大小
根据 AMD 的内部数据,AI 算力需求正在经历每年前所未有的暴涨。
PPT 第 8 页赫然写着:「10,000x Increase in AI Compute」。
苏姿丰说:「不仅训练算力每年增长 4 倍,在过去两年里,推理 Token 的数量增加了 100 倍。」
这一数据直接回击了英伟达关于「推理成本」的叙事—— AMD 同样看到了 Agentic AI 的未来,但他们的解决方案完全不同。
AMD 试图用更开放、更巨大的规模来解决问题。
Helios AI Rack:开放架构的图腾
发布会的高潮是一个名为「Helios」的 AI 机架的揭幕。
以希腊神话中的太阳神命名,Helios 承载了 AMD 照亮黑暗、打破垄断的隐喻。
如果说英伟达的 NVL72 是一座封闭的黑色方尖碑,那么 Helios 就是 AMD 试图构建的「巴别塔」——一座由全人类(除了英伟达)共同建造的高塔。
为了更直观地理解这场对决,我们将 Helios 与英伟达的 NVL 平台进行了详细对比:
Helios 机架不仅仅是硬件的堆叠,它是 AMD 战略的集大成者。
Zen 6 的首次确认与 x86 的坚守:在 PPT 的参数列表中,赫然写着「4,600 'Zen 6' CPU Cores」。
这是一个巨大的彩蛋,也是 AMD 对英伟达 Vera CPU 最有力的回击。
当英伟达试图将世界推向 Arm 架构时,AMD 坚守并升级了 x86 架构。
对于那些在这个星球上拥有数以亿计基于 x86 代码资产的企业来说,不需要为了 AI 重写所有的底层代码。
31TB HBM4 内存的暴力美学:这是一个让现场发出惊呼的数字。
对于大模型训练而言,显存容量往往比计算速度更早成为瓶颈。
AMD 继续沿用了「大显存」策略,试图用海量的 HBM4 来容纳更巨大的 MoE 模型,从而减少跨卡通信的频率。
这是一种简单粗暴但极为有效的策略:如果你的互联速度不如 NVLink,那就把内存做大,减少互联的需求。
MI455X:参数怪兽与模组化的胜利
作为 Helios 的心脏,AMD Instinct MI455X被正式推向舞台中央。
10 倍性能跃迁:相比于前代 MI355X,MI455X 实现了 10 倍的性能提升。
这是一个激进的数字,通常代际升级在 2-3 倍,10 倍的宣称意味着架构级的重构。
这主要得益于新的 CDNA 架构和制程红利。
OAM 模组化设计的坚持:不同于英伟达越来越倾向于将 CPU 和 GPU 焊死在一块主板上,AMD 依然强调即插即用的灵活性。
这意味着客户可以保留原有的服务器机箱,只升级计算模组。
这对于成本敏感的云服务商来说,是极具诱惑力的「反锁定」策略。
他们不需要因为升级 GPU 而扔掉整个机柜的电源和散热系统。
未来路线图:MI500 与千倍提升
AMD 展示了直到 2027 年的路线图,这种透明度在瞬息万变的半导体行业极为罕见。
2026 年:MI400 系列(即今天的 MI455X)。2027 年:MI500 系列。这将基于CDNA 6 架构,采用 2nm 工艺,配备 HBM4E 内存。
AMD 承诺在 4 年内实现 1000 倍的 AI 性能提升。
这是在告诉资本市场和客户:「我们有长期的技术储备,不会在英伟达的快速迭代中掉队。我们是长跑选手,不是投机者。」
数据中心的血管,互联技术的隐秘战争
如果说 GPU 是跑车,那么互联技术就是高速公路。
英伟达之所以无敌,不仅仅是因为跑车快,更是因为他们修了私有的高速公路(NVLink),只允许自家的车跑,而且还要收昂贵的过路费。
本次发布会上,AMD 最核心、也是最具破坏力的战略反击,就是联合全行业修建一条免费、通用的高速公路——UALink ( Ultra Accelerator Link ) ,以及升级原本的国道——Ultra Ethernet ( 超以太网 ) 。
拆解 NVLink 的霸权:为何它是英伟达真正的护城河?
在技术圈,NVLink 被视为英伟达最深的护城河,甚至超过了 CUDA。
它允许 GPU 之间像大脑神经元一样共享内存,延迟极低。
没有 NVLink,几千张 GPU 堆在一起只是一堆沙子;
有了 NVLink,它们才是一颗超级大脑。
英伟达的策略是:如果你想用最高效的集群,就必须买全套英伟达方案。
NVLink 不兼容任何其他厂商的芯片,它是一个封闭的物理层协议。
UALink:技术突围
AMD 在 PPT 中专门辟出一页介绍开放生态。
这背后是一个名为UALink Consortium的庞大联盟。
Scale Up(节点内扩展)的利剑:UALink。
这是直接对标 NVLink 的技术。
它由 AMD、英特尔、微软、Meta、谷歌、博通等巨头共同制定。
UALink 1.0 规范支持多达 1024 个加速器在一个 POD 内互联,这在规模上甚至超越了英伟达当前的 NVSwitch 能力。
内存一致性:UALink 最关键的特性是支持显存池化。
这意味着 AMD 的 GPU 可以访问同一集群内其他 GPU 的内存,就像访问自己的一样。
这对于训练万亿参数模型至关重要,也是此前只有 NVLink 能做到的事情。
这是一个典型的「合纵连横」故事。
OpenAI、微软、Meta 这些巨头最恐惧的不是技术瓶颈,而是供应商锁定。
如果未来的 AI 基础设施完全依赖英伟达的私有标准,这些科技巨头的议价权将归零。
因此,Helios 机架不仅仅是 AMD 的产品,它是整个「反英伟达联盟」的意志体现。
以太网的逆袭:UEC vs InfiniBand
除了 UALink,发布会中多次提到Ultra Ethernet ( UEC ) 。
这是另一场关乎生死的战争:节点间互联。
InfiniBand 的统治:英伟达在收购 Mellanox 后,垄断了高性能网络 InfiniBand。 它延迟极低,无损传输,是 AI 训练的黄金标准。以太网的进化:AMD 没有选择自研私有网络,而是押注以太网的进化。 UEC 旨在解决传统以太网在 AI 负载下的丢包和拥塞问题。成本的逻辑:InfiniBand 昂贵且封闭,而以太网廉价且通用。 根据研究,UEC 方案的每 GFLOP 成本比 InfiniBand 低 27%。
如果 UEC 成功,意味着客户可以用便宜通用的以太网交换机(比如博通、思科的产品)来组建超级计算机,而不需要购买昂贵的英伟达 Quantum InfiniBand 交换机。
这正是 Helios 机架的杀手锏:更低的总拥有成本(TCO)。
对于那些要购买数万张显卡的客户来说,这节省下来的钱可能高达数十亿美元。
端侧的野望,Ryzen AI Max 与「Mac Studio 杀手」
视线从云端的数据中心拉回,苏姿丰将展示重点转向了 PC。
在 AI 时代,PC 正在变成「私人 AI 助理」的物理载体。
Ryzen AI Max:打破内存墙的 128GB 豪赌
AMD 发布了震撼级的产品——Ryzen AIMax 系列。
这款芯片看似只是笔记本处理器,但其参数却令人咋舌,尤其是那个恐怖的数字:128GB 统一内存。
为什么这很重要?
在过去,x86 处理器的内存和显存是分离的,且容量有限。
想在笔记本上运行一个像 Llama 3 70B 这样的大模型几乎是不可能的,因为显存不够。
苹果的 M 系列芯片(M3 Max/Ultra)之所以受开发者欢迎,就是因为统一内存架构允许大模型直接在本地运行。
AMD Ryzen AI Max 直接对标苹果,成为首款能运行 2350 亿(235B)参数模型的 x86 处理器。
这意味着,开发者可以在一台 Windows 笔记本上,流畅运行企业级的超大模型,而无需联网。
性能对比:羞辱英特尔,追赶苹果,挑战英伟达
现场的 PPT 充满了火药味,AMD 几乎把市面上所有的竞争对手都拉出来打了一遍:
对比 Intel Core Ultra 9:Ryzen AI 400 系列在内容创作上快 1.7 倍,多任务处理快 1.3 倍。
这象征着 x86 阵营内部话语权的转移。
对比 Apple M5:这是一个大胆的比较。
AMD 声称 Ryzen AI Max 在 AI Token 生成速度上快 1.4 倍。
对于那些苦于苹果生态封闭、又羡慕其统一内存架构的开发者来说,这是唯一的替代品。
对比 Nvidia DGX Spark:最令人意外的是,AMD 将笔记本芯片与英伟达的工作站级别产品对比。
在每美元 Token 生成效率上,Ryzen AI Max 是英伟达 DGX Spark 的 1.7 倍。
AMD 描绘了一个诱人的未来:每一个开发者、每一个创作者,都能在自己的书桌上拥有一台「微型超算」。
不再需要昂贵的云端 API,不再担心隐私泄露,你的 Ryzen AI Max 就是你的私有 GPT。
这对于 OpenAI 等公司来说也是利好——如果端侧算力足够强,大量的推理任务可以从云端卸载到用户本地,从而节省天文数字般的云服务器成本。
Halo Platform:开发者的「军火库」
除了硬件,AMD 还发布了 Ryzen AI Halo 处理器,专为 AI 开发者设计。
它是一个平台。
它预装了 ROCm 软件栈(AMD 的 CUDA 替代品),优化了 PyTorch、Hugging Face 等框架,并且实现了 Day-0 支持主流模型(Llama, GPT-OSS, Flux 等)。
AMD 终于意识到,软硬结合才是王道。
他们试图用类似苹果的体验,将开发者从 CUDA 的引力场中拉出来,给他们一把「铲子」,让他们在 AMD 的土地上挖掘 AI 的金矿。
盟友的站台,不仅仅是商业互吹
在发布会的后半程,PPT 上出现了一张密密麻麻的 Logo 墙。
但其中最耀眼的,莫过于 OpenAI。
虽然奥特曼没有亲自出场站台,而是 OpenAI 总裁 Greg Brockman 代为出席,但 OpenAI 作为核心合作伙伴出现在第一位,本身就是最强烈的信号。
这是一场关于生存的博弈。
OpenAI 的焦虑与 AMD 的机会
为什么 OpenAI 需要 AMD?
答案很简单:恐惧。
OpenAI 对算力的饥渴已经到了病态的程度。
Brockman 直接摊牌,在 OpenAI 内部,「算力一直在被争抢」。
对此,苏姿丰打趣道:「我每次见到你,你都会告诉我:你们还需要更多算力。」
随即,她抛出一个关键问题:「需求真的有这么大吗?」
Brockman 的回答相当直接:
过去几年里,OpenAI 的算力规模几乎每年都在翻倍甚至三倍增长,而且这种趋势不会放缓。
他甚至用 ChatGPT,做了一页幻灯片,分析了 OpenAI如何让推理更省算力,包括更高带宽、更强性能、更低的 HBM 内存占用。
据报道,GPT-6 及后续模型的训练需要数万张甚至数十万张 B200。
如果只依赖英伟达,OpenAI 的命运就完全掌握在黄仁勋手中。
英伟达可以决定谁先拿到芯片,谁能拿到多少,甚至以什么价格拿到。
议价权:引入 AMD 作为「二供」,是 OpenAI 乃至微软逼迫英伟达降价、或者至少不随意涨价的唯一手段。
哪怕 AMD 的芯片只能达到英伟达 80% 的性能,只要它存在,英伟达就不能肆无忌惮地垄断定价。
供应链安全:当台积电的 CoWoS 产能被英伟达订满时,AMD 提供了一个备选项(尽管他们也争抢台积电产能,但 AMD 的 Chiplet 设计策略使其能利用不同的封装技术,增加了供应链的弹性)。软件生态的破局:ROCm 的进化与 PyTorch 的胜利
除了 OpenAI,我们还看到了 Hugging Face、PyTorch、Databricks 等名字。
这是 AMD 对外界质疑最有力的回应。
多年来,关于 AMD 最大的诟病就是「硬件一流,软件三流」。
ROCm(Radeon Open Compute)一直被认为是 CUDA 的拙劣模仿者,Bug 多、文档少。
但在这次发布会上,AMD 展示了 ROCm 的广泛采用。
这一变化的幕后推手是 PyTorch 2.0。
随着 PyTorch 等高层框架的普及,底层的 CUDA 依赖正在被剥离。
对于大多数开发者来说,只要 PyTorch 代码能跑,底下是 A 卡还是 N 卡已经越来越不重要了。
OpenAI 的 Triton 语言更是加速了这一过程,它允许开发者编写的代码自动优化到不同的硬件后端。
这正是 AMD「农村包围城市」战略的体现:既然无法在底层 CUDA 上击败你,那就把战场拉到上层的 PyTorch 和 Triton 上,在那里,大家是平等的。
算力战争,才刚刚开始
苏姿丰抛出了一个让全场愣住的判断:「五年内,全球将有 50 亿人每天都在使用 AI 。」
注意:是每天都在用!
这意味着算力需求将持续指数级增长。
2025 年,全球 AI 用户已超过 10 亿!而且,这不是 AI 的终点:未来主动式和自动化 AI 还将指数级增长,引爆更多推理算力需求。
AMD 的另一个关键判断是:AI 正在从云端,走向个人电脑。
李飞飞直接描绘了未来的游戏体验。
她的公司 World Labs 旗下的产品 Marble,只需要少量照片,就能让模型自动构建一个完整的3D 世界。
现场演示中,只要用手机随手拍几张照片,AI 就能自动生成 3D 场景。
游戏、虚拟世界、创作门槛,会被彻底打穿。
这深远影响 PC 的使用体验。
更激进的,是主动式智能体。
明年开始,你的电脑,可能真的会「替你打工」:
除了 PC,AMD 还在同步押注物理 AI 等场景。
哪里需要 AI 算力,AMD 就会出现在哪里。
这一次,AMD 是真正的 All in AI。
当苏姿丰在台上展示LUMI超级计算机(由 AMD 驱动的前欧洲最快超算)在气候模拟上的贡献时,更是进一步输出了价值观。
反英伟达联盟的本质
本次 CES 发布会,实质上是「反英伟达联盟」的一次誓师大会。
英伟达的路线:类似于早期的 IBM 或现在的苹果。
封闭、昂贵、体验极致、利润独吞。
Vera Rubin 平台将这种封闭推向了极致,从 CPU 到 GPU 再到网卡和交换机,全部自研,全部私有。
AMD 的路线:类似于安卓。
开放、混乱但充满活力、性价比高、利润共享。 它联合了博通(网络)、英特尔(CPU 互联)、微软(软件)等所有被英伟达边缘化的巨头。
客户的选择:短期内,为了追求极致性能(如训练 GPT-6),巨头们依然会咬牙购买英伟达的 Rubin。
但在推理侧和中等规模训练中,Helios 和 MI455X 提供了极具吸引力的替代方案。
发布会结束了,苏姿丰在一片掌声中退场,留下了身后大屏幕上那个巨大的「Together we advance_」的标语。
这一刻,AI 算力的分岔路口
对于全球科技产业而言,2026 年的这天意义非凡。
我们并不希望看到一个只有一个玩家的游戏。
当英伟达试图用 Vera Rubin 将整个 AI 产业封装进它的黑色机柜时,AMD 用 Helios 在墙上凿出了一扇窗。
如果说英伟达是算力时代的「罗马帝国」,不仅修路(NVLink),还造车(GPU),甚至开始制定交通规则(Agentic AI),那么 AMD 就是那个试图维持贸易自由的「商业联邦」。
OpenAI 需要这扇窗,微软需要这扇窗,在这个星球上每一个渴望低成本、普惠 AI 算力的开发者都需要这扇窗。
这场「AI 算力战争」没有终点,Yotta Scale 只是下一个开始。
正如沙漠中每一粒沙子都可能成为未来的芯片,算力的世界里,也绝不应该只有一种声音。


