刚刚,英伟达 CEO 黄仁勋穿着鳄鱼皮夹克,在全球最大消费电子展 CES 2026 上发布 AI 新品。
这是五年来,英伟达首次来到 CES 却没有发游戏显卡,态度很明确:
全力搞 AI。

全力搞出来的结果也让围观群众直呼:竞争对手如何追上英伟达?
下一代 Rubin 架构 GPU 推理、训练性能分别是 Blackwell GB200 的 5 倍和 3.5 倍(NVFP4 数据格式)。

除此之外,老黄还带来了五大领域的全新发布,包括:
面向 Agentic AI 的 NVIDIA Nemotron 模型家族
面向物理 AI 的 NVIDIA Cosmos 平台
面向自动驾驶开发的全新 NVIDIA Alpamayo 模型家族
面向机器人领域的 NVIDIA Isaac GR00T
面向生物医学的 NVIDIA Clara
同时,英伟达宣布持续向社区开源训练框架以及多模态数据集。其中数据集包括 10 万亿语言训练 token、50 万条机器人轨迹数据、45.5 万个蛋白质结构、100TB 车辆传感器数据。
这次的核心主题,直指物理 AI。

用网友的话来说:
这是英伟达将护城河从芯片层进一步拓展到全栈平台层(模型 + 数据 + 工具)的体现,通过这种方式可以持续拉动更多 GPU 与基础设施投入,并显著增强用户与生态的锁定。

值得一提的是,咱国产开源模型又双叒被 cue 到了。
老黄在演讲开篇便提及了 DeepSeek,Kimi K2、Qwen 也出现在 PPT 展示页上。

正式推出 Vera Rubin NVL72
老黄正式推出英伟达下一代 AI 数据中心的机柜架构 Vera Rubin,披露架构细节。
六大核心组件共同构成 Vera Rubin NVL72 机架:
Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4 数据处理单元(DPU)、Spectrum-6 Ethernet switch。

在 NVFP4 数据类型下,Rubin GPU 推理性能可达 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 训练性能为 35 PFLOPS,是 Blackwell 的 3.5 倍。
为支撑这些计算能力,每颗 Rubin GPU 封装了 8 组 HBM4 内存,提供 288GB 容量和 22 TB/s 的带宽。
随着主流大模型转向 MoE 架构,模型得以相对高效地进行规模扩展。然而,这些专家模块之间的通信,对节点间带宽提出了极高要求。
Vera Rubin 引入了用于规模内扩展网络的 NVLink 6。
它将单 GPU 的互连带宽提升至 3.6 TB/s(双向)。每颗 NVLink 6 交换芯片提供 28 TB/s 的带宽,而每个 Vera Rubin NVL72 机架配备 9 颗这样的交换芯片,总规模内带宽达到 260 TB/s。
NVIDIA Vera CPU 集成了 88 个定制的 Olympus Arm 核心,采用英伟达称为 "spatial multi-threading" 设计,最多可同时运行 176 个线程。
用于将 Vera CPU 与 Rubin GPU 进行一致性连接的 NVLink C2C 互连,其带宽提升了一倍,达到 1.8 TB/s。每颗 Vera CPU 可寻址最多 1.5 TB 的 SOCAMM LPDDR5X 内存,内存带宽最高可达 1.2 TB/s。

为将 Vera Rubin NVL72 机架扩展为每组 8 个机架的 DGX SuperPod,英伟达推出了一对采用共封装光学(CPO)的 Spectrum-X 以太网交换机,均基于 Spectrum-6 芯片构建。
每颗 Spectrum-6 芯片提供 102.4 Tb/s 的带宽,英伟达基于该芯片推出了两款交换机。
SN688 提供 409.6 Tb/s 的总带宽,支持 512 个 800G 以太网端口或 2048 个 200G 端口。
SN6810 则提供 102.4 Tb/s 的带宽,可配置为 128 个 800G 或 512 个 200G 以太网端口。
这两款交换机均采用液冷设计,英伟达表示,与不具备硅光子技术的硬件相比,它们在能效、可靠性和运行时间方面表现更优。
随着上下文窗口扩展到数百万 token,英伟达还指出,存储 AI 模型交互历史的键值缓存(KV cache)相关操作,已成为推理性能的瓶颈。
此前黄仁勋曾表态:没有 HBM,就没有 AI 超算。

为突破这一限制,英伟达推出新硬件 BlueField-4 DPU,构建了一个新的内存层级,称为推理上下文内存存储平台(Inference Context Memory Storage Platform)。

英伟达表示,这一存储层旨在实现键值缓存数据在 AI 基础设施中的高效共享与复用,从而提升系统响应速度和吞吐能力,并实现 Agentic AI 架构可预测、能效友好的规模扩展。
这是 Vera Rubin 首次将英伟达的可信执行环境扩展至整个机架级别。
整体来看,每个 Vera Rubin NVL72 机架可提供:
3.6 exaFLOPS 的 NVFP4 推理性能
2.5 exaFLOPS 的 NVFP4 训练性能
54 TB 的 LPDDR5X 内存(连接至 Vera CPU)
20.7 TB 的 HBM4 内存,带宽达 1.6 PB/s
为保障机架系统的持续高效运行,英伟达在机架层面引入了多项改进,包括无缆化模块托盘设计,使组件更换速度显著快于此前的 NVL72 机架;增强的 NVLink 弹性能力,实现零停机维护;以及第二代 RAS 引擎,可在不中断服务的情况下完成健康检测。
另外,英伟达表示,与 Blackwell 相比,Vera Rubin 在训练 MoE 模型时所需的 GPU 数量仅为四分之一;在 MoE 推理场景下,其每 token 成本最高可降低 10 倍。
反过来看,这也意味着 Rubin 能在相同机架空间内,大幅提升训练吞吐量,并生成远多于以往的 token 数量。
据介绍,目前用于构建 Vera Rubin NVL72 所需的六类芯片已全部从晶圆厂交付,英伟达预计将在 2026 年下半年启动 Vera Rubin NVL72 的规模化量产。
自动驾驶全新开源模型系列发布
再来看英伟达重磅推出的全新开源模型系列——Alpamayo,面向安全推理的自动驾驶。

全球首款开源、大规模的自动驾驶视觉 - 语言 - 行动(VLA)推理模型 Alpamayo 1,参数 100 亿。
它能够让自动驾驶车辆理解周围环境,并对自身的决策行为做出解释。
模型接收车辆自身的运动历史数据、多摄像头采集的实时视频画面、用户指令三类输入信息,然后进行推理,之后生成具体的驾驶决策、因果推理结果、规划出的行驶轨迹。

配套推出的还有一款开源仿真框架—— AlpacaSim。
它支持在各种不同的环境与边缘场景中,对基于推理的自动驾驶模型进行闭环训练与评估。
此外,英伟达还发布了一个包含1700 小时驾驶数据的开源数据集。这些数据采集于全球最广泛的地理区域与环境条件下,涵盖了推进推理架构发展所必需的罕见及复杂真实边缘场景。
落地方面,据介绍,Alpamayo 将率先搭载于 2025 年第二季度欧洲上市的梅赛德斯 - 奔驰 CLA 车型,后续将通过 OTA 升级逐步推送高速公路脱手驾驶、城市全场景自动驾驶、端到端自动泊车等功能,并计划登陆美国市场。

英伟达基于自身技术构建的全球 L4 级自动驾驶与 Robotaxi 生态系统全景也亮相了,通过连接软件开发商、整车厂 / 出行平台、硬件供应商,覆盖全产业链。

Nemotron 再推专项模型
NVIDIA Nemotron 在 AI 智能体领域的新拓展,核心是在已发布的 Nemotron 3 开放模型与数据基础上,进一步推出针对语音、RAG以及安全三大场景的专项模型。

其中,Nemotron Speech包含新的自动语音识别(ASR)模型,不仅语音识别性能强,而且能支持实时字幕生成这样的实时低延迟场景,速度比同类模型快 10 倍。
英伟达表示,目前博世已采用该模型实现司机与车辆之间的交互。
Nemotron RAG则搭载新的视觉语言模型,能精准处理多语言、多模态数据,有效提升文档搜索效率。
Nemotron Safety系列模型专注于增强 AI 应用的安全性与可信度,具体包括支持更多语言的 Llama Nemotron 内容安全模型,以及高精度检测敏感数据的 Nemotron PII 模型。
机器人推理大脑 Cosmos 升级
活动现场,老黄宣布英伟达为机器人推出的懂推理的 " 大脑 "Cosmos 再度升级。
Cosmos 主要被用来生成符合现实世界物理规律的合成数据,自发布以来,已被 Figure、Agility Robotics、通用汽车等一众知名机器人和自动驾驶公司采用。

这次全新发布了:
Cosmos Reason 2:一款全新的、排名领先的视觉 - 语言推理模型(VLM)。它能够帮助机器人与 AI 智能体更精准地感知、理解并与物理世界进行交互。
Cosmos Transfer 2.5 与 Cosmos Predict 2.5:两款领先的模型,可在各种不同的环境与条件下,生成大规模的合成视频。

英伟达还基于 Cosmos 模型,为各类物理 AI 应用推出了专用的开源模型与参考蓝图:
Isaac GR00T N1.6:一款专为类人机器人打造的开源视觉 - 语言 - 行动(VLA)推理模型。它支持机器人的全身控制,并集成了英伟达 Cosmos Reason 模型,以实现更强大的推理能力与上下文理解能力。
NVIDIA AI Blueprint for Video Search and Summarization:作为英伟达 Metropolis 平台的一部分,该蓝图提供了一套参考工作流,可用于构建视觉 AI 智能体。这些智能体能够分析大量的录播及直播视频,从而提升运营效率并保障公共安全。

据了解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord 等企业正采用 Cosmos Reason 模型,开发面向交通与职场生产力提升的 AI 智能体。Franka Robotics、Humanoid 和 NEURA Robotics 则利用 Isaac GR00T 模型,在机器人大规模量产前,对其全新行为进行仿真、训练与验证。
针对医疗健康与生命科学的 AI
NVIDIA Clara 是专门针对医疗健康与生命科学领域的 AI 技术工具。
核心目标是降低行业成本、加速治疗方案落地,打通数字科研与实际医疗应用之间的壁垒。
该系列中的多款专项模型各有侧重:
La-Proteina 能设计原子级精度的大型蛋白质;
ReaSyn v2 在药物发现阶段就开始考虑 " 如何生产 " 的问题;
KERMT 可以预测潜在药物进入人体后的反应,提前排查安全问题;
RNAPro 用来预测 RNA 分子复杂的 3D 结构,推进个性化医疗方案。

模型之外,老黄表示英伟达还将为研究者提供含 45.5 万个合成蛋白质结构的数据集。
总之,老黄的 2026 开年第一讲,真是让人眼花缭乱了……
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
量子位智库 2025 年度「AI 100」榜单正式开启招募!
和我们一起在日新月异的 AI 产品市场中厘清背后脉络,把握未来动向,找到真正代表中国 AI 实力的巅峰力量
一键关注 点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦