文 | 赛博汽车
在 2026 年 CES 的聚光灯下,黄仁勋没有仅仅谈论芯片的算力,而是描绘了一个即将被智能体深度融入的现实世界。
"AI 的第二个拐点已经到来——从理解语言到理解物理世界,从软件智能体到具身智能体 "。
当地时间 1 月 5 日,英伟达 CEO 黄仁勋身穿标志性皮衣登台,围绕 " 物理 AI" 展开了一场 90 分钟的主题演讲。


英伟达 CEO 黄仁勋
他指出,物理 AI 不仅涵盖视觉与语言理解,更融合重力、摩擦、惯性等物理动态,能够在真实世界中执行复杂任务,未来将重塑全球 1000 万家工厂与 20 万个仓库的运作模式。
这一愿景背后,依托三大技术支撑:Newton 物理引擎,实时计算物理世界模型,响应时间低于 0.01 秒,适用于机器人及自动驾驶场景;Cosmos 基础模型平台,支持多模态物理世界理解,已训练 1000 亿参数,推理延迟降至 1 毫秒;GPU+LPU 混合算力架构,GPU 负责训练,LPU 专注低延迟推理,效率提升 100 倍,成本降低 90%。
黄仁勋强调:"AI 的价值不再仅由算力决定,而由场景定义。物理世界正是 AI 最大的应用场景。" 为此,英伟达将持续提供算力基石,并在自动驾驶、机器人等领域推动开源产品落地。
黄仁勋指出," 开放模型已触及前沿,虽然仍稳固地落后前沿模型六个月,但每隔六个月,一个新的模型就会出现。英伟达不仅开源模型,还将开源训练数据,让开发者真正理解模型的构建过程。"
01 Rubin 架构正式登场,下半年量产
任何技术革命都离不开底层算力的支撑。" 我们必须每年推动计算技术向前进步,一刻也不能延迟。" 发布会上,黄仁勋正式发布了英伟达下一代 AI 数据中心机柜架构—— Vera Rubin。
该架构命名致敬天文学家 Vera Rubin,她在暗物质研究领域取得了突破性进展,其研究成果彻底改变了人类对宇宙的认知。

而这,也是每一代英伟达 GPU 架构的命名习惯。
黄仁勋此次披露了 Rubin 架构的更多细节:它由六类芯片构成,包括 Vera CPU、Rubin GPU、NVLink 6 交换机、ConnectX-9 SuperNIC、BlueField-4 数据处理单元和 Spectrum-6 以太网交换机,共同组成 Vera Rubin NVL72 机架。

作为首款定制 CPU+GPU 协同设计的产品,采用台积电 2nm 工艺,集成了 Rubin GPU 与专为智能体推理打造的 Vera CPU,算力实现显著跃升。
Rubin 架构包含 3360 亿个晶体管,NVFP4 数据类型下,Rubin GPU 推理性能达到 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 训练性能高达 35 PFLOPS,是 Blackwell 的 3.5 倍。

为满足庞大的计算资源需求,每款 Rubin GPU 都配备了 8 个 HBM4 显存堆栈,提供 288GB 的容量和 22 TB/s 的带宽。
与此同时,随着大型语言模型从激活所有参数以生成给定输出词元的密集架构,转向每个词元仅激活部分可用参数的专家混合(MoE)架构,这些模型的扩展效率得以相对提高。然而,模型内部专家之间的通信需要大量的节点间带宽。
为此,Vera Rubin 数据中心架构引入了用于规模内扩展网络的 NVLink 6,将单 GPU 的互连带宽提升至 3.6 TB/s(双向)。每颗 NVLink 6 交换芯片提供 28 TB/s 的带宽,而每个 Vera Rubin NVL72 机架配备 9 颗这样的交换芯片,总规模内带宽达到 260 TB/s。

NVIDIAVera CPU 集成了 88 个定制的 Olympus Arm 核心,采用 "spatial multi-threading"(空间多线程)设计,最多可同时运行 176 个线程。用于将 Vera CPU 与 Rubin GPU 进行一致性连接的 NVLink C2C 互连,其带宽提升了一倍,达到 1.8 TB/s。每颗 Vera CPU 可寻址最多 1.5 TB 的 SOCAMM LPDDR5X 内存,内存带宽最高可达 1.2 TB/s。
为了将 Vera Rubin NVL72 机架扩展为每组包含八个机架的 DGX SuperPod,英伟达推出了两款采用 Spectrum-6 芯片的 Spectrum-X 以太网交换机,每颗 Spectrum-6 芯片可提供 102.4 Tb/s 的带宽,Nvidia 将其应用于两款交换机中。

据黄仁勋介绍,每个 Vera Rubin NVL72 机架可提供 3.6 exaFLOPS 的 NVFP4 推理性能、2.5 exaFLOPS 的 NVFP4 训练性能,连接至 Vera CPU 的 54 TB LPDDR5X 内存,以及 20.7 TB 的 HBM4 内存,带宽达 1.6 PB/s。
" 与 Blackwell 相比,Vera Rubin 在训练 MoE 模型时所需的 GPU 数量仅为四分之一;在 MoE 推理场景下,其每 token 成本最高可降低 10 倍 "。黄仁勋表示,Rubin 能在相同机架空间内大幅提升训练速度,并输出更多 token。
他透露,Rubin 系列芯片已经全面投产,并将于今年下半年推出,重要应用于物理 AI 训练、机器人模拟、自动驾驶仿真等领域,其订单规模已达 3000 亿美元,微软下一代 Fairwater AI 超级工厂、CoreWeave 等将成为首批应用者。
除了发布新产品,黄仁勋也公布了一些 " 老朋友 " 的进展:Blackwell Ultra 量产加速,2026 年 Q2 全面供货,单机算力提升 50% 的同时功耗降低 30%,适配机器人边缘计算场景。
02 从自动驾驶到机器人,构建开放技术栈
芯片是算力的基石,场景则是 " 物理 AI" 的价值所在。其中,自动驾驶是核心落地场景之一。
在黄仁勋看来,当前辅助驾驶系统在应对 " 长尾场景 " 时仍面临挑战。传统将感知与规划分离的辅助驾驶架构,在突发或异常情况下存在泛化与可解释性不足的问题。
为此,英伟达发布首个专为自动驾驶汽车设计的 " 推理 "AI:Alpamayo,这是一个新系列的开放模型、模拟工具和数据集,专为基于推理的驾驶系统而设计。该系列引入基于思维链的 VLA(Vision-Language-Action)推理模型,用于对复杂驾驶场景进行逐步推演和逻辑表达,以提升决策透明度。

Alpamayo 系列包括三部分:
一是 Alpamayo1,一款约 100 亿参数规模的思维链推理模型,已在 Hugging Face 上开源,以使汽车能够理解周围环境并解释其行动,用于研究、模型蒸馏及开发辅助工具。
二是 AlpaSim,一套完全开源的端到端辅助驾驶仿真框架,已在 GitHub 发布,支持在多种环境和边缘案例中进行闭环训练和评估。
三是物理 AI 开放数据集,包含超过 1700 小时的真实道路驾驶数据,覆盖不同区域和环境条件,并包含一定比例的复杂和罕见场景。
这些工具共同构成了一个自我强化的开发闭环,助力构建基于推理的自动驾驶技术栈。
不过,Alpamayo 模型并非直接在车端运行,而是作为大规模的 " 教师模型 "。开发者可以对其进行微调和蒸馏,转化为各自完整自动驾驶技术栈的核心骨架。黄仁勋指出,Alpamayo 系列为一个内聚的开放生态系统,任何汽车开发商或研究团队都可以在此基础上进行开发。

据黄仁勋透露,Alpamayo 将率先搭载于 2025 款梅赛德斯 - 奔驰 CLA 车型,后续通过 OTA 升级逐步推送高速公路脱手驾驶、城市全场景自动驾驶、端到端自动泊车等功能,并逐步登陆美、欧、亚市场。"Lucid、捷豹路虎、Uber 和 DeepDrive 等企业也希望基于 Alpamayo 实现 L4 级自动驾驶。"
有意思的是,知名特斯拉投资者 Sawyer Merritt 分享了英伟达发布会视频和相关细节,指出 Alpamayo 将率先搭载梅赛德斯 CLA。特斯拉 CEO 马斯克很快回复道:" 这正是特斯拉正在做的。他们会发现,达到 99% 很容易,但解决分布的长尾问题超级难。"
此外,黄仁勋还指出,升级后的 Drive Thor 算力达到 2000TOPS,已斩获 15+ 车企订单,将于 2027 年量产。

" 我们的愿景是,未来有一天,每一辆汽车、每一辆卡车都将实现自动驾驶。" 黄仁勋指出,自动驾驶汽车的时代已经全面到来,自动驾驶汽车将成为 " 首个大规模的、面向主流市场 " 的物理 AI 应用场景。
除了自动驾驶以外,具身智能也是物理 AI 的一大应用市场。英伟达为机器人推出的 " 大脑 "Cosmos 也再度升级,它主要被用来生成符合现实世界物理规律的合成数据。

此次 Cosmos 主要升级了三部分。
Cosmos Transfer 2.5 和 Cosmos Predict 2.5:开源、完全可定制的世界模型,为物理 AI 实现基于物理原理的合成数据生成与机器人策略评估的仿真支持。
Cosmos Reason 2:开源推理视觉语言模型(VLM),使智能机器能够像人类一样看见、理解物理世界并采取行动。
Isaac GR00T N1.6:专为人形机器人打造的开放式推理视觉语言行动(VLA)模型,可解锁全身控制能力,并借助 Cosmos Reason 增强推理和上下文理解。
从重新定义算力极限的 Rubin 架构,到为自动驾驶注入思维链的 Alpamayo,机器人 " 大脑 "Cosmos 升级,英伟达的战略图谱清晰显现:它正致力于成为智能体理解并行动于物理世界的 " 使能层 "。


登录后才可以发布评论哦
打开小程序可以发布评论哦