量子位 前天
老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

刚刚,英伟达 CEO 黄仁勋穿着鳄鱼皮夹克,在全球最大消费电子展 CES 2026 上发布 AI 新品。

这是五年来,英伟达首次来到 CES 却没有发游戏显卡,态度很明确:

全力搞 AI。

全力搞出来的结果也让围观群众直呼:竞争对手如何追上英伟达?

下一代 Rubin 架构 GPU 推理、训练性能分别是 Blackwell GB200 的 5 倍和 3.5 倍(NVFP4 数据格式)。

除此之外,老黄还带来了五大领域的全新发布,包括:

面向 Agentic AI 的 NVIDIA Nemotron 模型家族

面向物理 AI 的 NVIDIA Cosmos 平台

面向自动驾驶开发的全新 NVIDIA Alpamayo 模型家族

面向机器人领域的 NVIDIA Isaac GR00T

面向生物医学的 NVIDIA Clara

同时,英伟达宣布持续向社区开源训练框架以及多模态数据集。其中数据集包括 10 万亿语言训练 token、50 万条机器人轨迹数据、45.5 万个蛋白质结构、100TB 车辆传感器数据。

这次的核心主题,直指物理 AI。

用网友的话来说:

这是英伟达将护城河从芯片层进一步拓展到全栈平台层(模型 + 数据 + 工具)的体现,通过这种方式可以持续拉动更多 GPU 与基础设施投入,并显著增强用户与生态的锁定。

值得一提的是,咱国产开源模型又双叒被 cue 到了。

老黄在演讲开篇便提及了 DeepSeek,Kimi K2、Qwen 也出现在 PPT 展示页上。

正式推出 Vera Rubin NVL72

老黄正式推出英伟达下一代 AI 数据中心的机柜架构 Vera Rubin,披露架构细节。

六大核心组件共同构成 Vera   Rubin NVL72 机架:

Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4 数据处理单元(DPU)、Spectrum-6 Ethernet switch。

在 NVFP4 数据类型下,Rubin GPU 推理性能可达 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 训练性能为 35 PFLOPS,是 Blackwell 的 3.5 倍。

为支撑这些计算能力,每颗 Rubin GPU 封装了 8 组 HBM4 内存,提供 288GB 容量和 22 TB/s 的带宽。

随着主流大模型转向 MoE 架构,模型得以相对高效地进行规模扩展。然而,这些专家模块之间的通信,对节点间带宽提出了极高要求。

Vera Rubin 引入了用于规模内扩展网络的 NVLink 6。

它将单 GPU 的互连带宽提升至 3.6 TB/s(双向)。每颗 NVLink 6 交换芯片提供 28 TB/s 的带宽,而每个 Vera Rubin NVL72 机架配备 9 颗这样的交换芯片,总规模内带宽达到 260 TB/s。

NVIDIA   Vera CPU 集成了 88 个定制的 Olympus Arm 核心,采用英伟达称为 "spatial multi-threading" 设计,最多可同时运行 176 个线程。

用于将 Vera CPU 与 Rubin GPU 进行一致性连接的 NVLink C2C 互连,其带宽提升了一倍,达到 1.8 TB/s。每颗 Vera CPU 可寻址最多 1.5 TB 的 SOCAMM LPDDR5X 内存,内存带宽最高可达 1.2 TB/s。

为将 Vera Rubin NVL72 机架扩展为每组 8 个机架的 DGX SuperPod,英伟达推出了一对采用共封装光学(CPO)的 Spectrum-X 以太网交换机,均基于 Spectrum-6 芯片构建。

每颗 Spectrum-6 芯片提供 102.4 Tb/s 的带宽,英伟达基于该芯片推出了两款交换机。

SN688 提供 409.6 Tb/s 的总带宽,支持 512 个 800G 以太网端口或 2048 个 200G 端口。

SN6810 则提供 102.4 Tb/s 的带宽,可配置为 128 个 800G 或 512 个 200G 以太网端口。

这两款交换机均采用液冷设计,英伟达表示,与不具备硅光子技术的硬件相比,它们在能效、可靠性和运行时间方面表现更优。

随着上下文窗口扩展到数百万 token,英伟达还指出,存储 AI 模型交互历史的键值缓存(KV cache)相关操作,已成为推理性能的瓶颈。

此前黄仁勋曾表态:没有 HBM,就没有 AI 超算。

为突破这一限制,英伟达推出新硬件 BlueField-4 DPU,构建了一个新的内存层级,称为推理上下文内存存储平台(Inference Context Memory Storage Platform)。

英伟达表示,这一存储层旨在实现键值缓存数据在 AI 基础设施中的高效共享与复用,从而提升系统响应速度和吞吐能力,并实现 Agentic AI 架构可预测、能效友好的规模扩展。

这是 Vera Rubin 首次将英伟达的可信执行环境扩展至整个机架级别。

整体来看,每个 Vera Rubin NVL72 机架可提供:

3.6   exaFLOPS 的 NVFP4 推理性能

2.5   exaFLOPS 的 NVFP4 训练性能

54 TB 的 LPDDR5X 内存(连接至 Vera   CPU)

20.7 TB 的 HBM4 内存,带宽达 1.6 PB/s

为保障机架系统的持续高效运行,英伟达在机架层面引入了多项改进,包括无缆化模块托盘设计,使组件更换速度显著快于此前的 NVL72 机架;增强的 NVLink 弹性能力,实现零停机维护;以及第二代 RAS 引擎,可在不中断服务的情况下完成健康检测。

另外,英伟达表示,与 Blackwell 相比,Vera Rubin 在训练 MoE 模型时所需的 GPU 数量仅为四分之一;在 MoE 推理场景下,其每 token 成本最高可降低 10 倍。

反过来看,这也意味着 Rubin 能在相同机架空间内,大幅提升训练吞吐量,并生成远多于以往的 token 数量。

据介绍,目前用于构建 Vera Rubin NVL72 所需的六类芯片已全部从晶圆厂交付,英伟达预计将在 2026 年下半年启动 Vera Rubin NVL72 的规模化量产。

自动驾驶全新开源模型系列发布

再来看英伟达重磅推出的全新开源模型系列——Alpamayo,面向安全推理的自动驾驶。

全球首款开源、大规模的自动驾驶视觉 - 语言 - 行动(VLA)推理模型 Alpamayo 1,参数 100 亿。

它能够让自动驾驶车辆理解周围环境,并对自身的决策行为做出解释。

模型接收车辆自身的运动历史数据、多摄像头采集的实时视频画面、用户指令三类输入信息,然后进行推理,之后生成具体的驾驶决策、因果推理结果、规划出的行驶轨迹。

配套推出的还有一款开源仿真框架—— AlpacaSim。

它支持在各种不同的环境与边缘场景中,对基于推理的自动驾驶模型进行闭环训练与评估。

此外,英伟达还发布了一个包含1700 小时驾驶数据的开源数据集。这些数据采集于全球最广泛的地理区域与环境条件下,涵盖了推进推理架构发展所必需的罕见及复杂真实边缘场景。

落地方面,据介绍,Alpamayo 将率先搭载于 2025 年第二季度欧洲上市的梅赛德斯 - 奔驰 CLA 车型,后续将通过 OTA 升级逐步推送高速公路脱手驾驶、城市全场景自动驾驶、端到端自动泊车等功能,并计划登陆美国市场。

英伟达基于自身技术构建的全球 L4 级自动驾驶与 Robotaxi 生态系统全景也亮相了,通过连接软件开发商、整车厂 / 出行平台、硬件供应商,覆盖全产业链。

Nemotron 再推专项模型

NVIDIA Nemotron 在 AI 智能体领域的新拓展,核心是在已发布的 Nemotron 3 开放模型与数据基础上,进一步推出针对语音RAG以及安全三大场景的专项模型。

其中,Nemotron Speech包含新的自动语音识别(ASR)模型,不仅语音识别性能强,而且能支持实时字幕生成这样的实时低延迟场景,速度比同类模型快 10 倍。

英伟达表示,目前博世已采用该模型实现司机与车辆之间的交互。

Nemotron RAG则搭载新的视觉语言模型,能精准处理多语言、多模态数据,有效提升文档搜索效率。

Nemotron Safety系列模型专注于增强 AI 应用的安全性与可信度,具体包括支持更多语言的 Llama Nemotron 内容安全模型,以及高精度检测敏感数据的 Nemotron PII 模型。

机器人推理大脑 Cosmos 升级

活动现场,老黄宣布英伟达为机器人推出的懂推理的 " 大脑 "Cosmos 再度升级。

Cosmos 主要被用来生成符合现实世界物理规律的合成数据,自发布以来,已被 Figure、Agility Robotics、通用汽车等一众知名机器人和自动驾驶公司采用。

这次全新发布了:

Cosmos Reason 2:一款全新的、排名领先的视觉 - 语言推理模型(VLM)。它能够帮助机器人与 AI 智能体更精准地感知、理解并与物理世界进行交互。

Cosmos Transfer 2.5 与 Cosmos Predict   2.5:两款领先的模型,可在各种不同的环境与条件下,生成大规模的合成视频。

英伟达还基于 Cosmos 模型,为各类物理 AI 应用推出了专用的开源模型与参考蓝图:

Isaac GR00T   N1.6:一款专为类人机器人打造的开源视觉 - 语言 - 行动(VLA)推理模型。它支持机器人的全身控制,并集成了英伟达 Cosmos Reason 模型,以实现更强大的推理能力与上下文理解能力。

NVIDIA AI Blueprint for Video Search and Summarization:作为英伟达 Metropolis 平台的一部分,该蓝图提供了一套参考工作流,可用于构建视觉 AI 智能体。这些智能体能够分析大量的录播及直播视频,从而提升运营效率并保障公共安全。

据了解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord 等企业正采用 Cosmos Reason 模型,开发面向交通与职场生产力提升的 AI 智能体。Franka Robotics、Humanoid 和 NEURA Robotics 则利用 Isaac GR00T 模型,在机器人大规模量产前,对其全新行为进行仿真、训练与验证。

针对医疗健康与生命科学的 AI

NVIDIA Clara 是专门针对医疗健康与生命科学领域的 AI 技术工具。

核心目标是降低行业成本、加速治疗方案落地,打通数字科研与实际医疗应用之间的壁垒。

该系列中的多款专项模型各有侧重:

La-Proteina 能设计原子级精度的大型蛋白质;

ReaSyn v2 在药物发现阶段就开始考虑 " 如何生产 " 的问题;

KERMT 可以预测潜在药物进入人体后的反应,提前排查安全问题;

RNAPro 用来预测 RNA 分子复杂的 3D 结构,推进个性化医疗方案。

模型之外,老黄表示英伟达还将为研究者提供含 45.5 万个合成蛋白质结构的数据集。

总之,老黄的 2026 开年第一讲,真是让人眼花缭乱了……

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

量子位智库 2025 年度「AI 100」榜单正式开启招募!

和我们一起在日新月异的 AI 产品市场中厘清背后脉络,把握未来动向,找到真正代表中国 AI 实力的巅峰力量

一键关注 点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 物理 英伟达 gpu ces
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论