就在今天,英伟达在 CES 2026 展会上发布了本年度的第一次演讲,以未来 AI 在物理世界中的完美融入作为主题。热点科技作为前方记者聆听了 CEO 黄仁勋对其的展望。
为了实现这一庞大且震撼的目标,英伟达在本次演讲上发布了下一代 Vera Rubin 超级 AI 计算平台,该平台由 6 大部分组成,分别为 Vera CPU/Rubin GPU/NVLink 6 交换机 /ConnectX-9 SuperNIC/BlueField-4 DPU/Spectrum-6 以太网交换机。

那么其中最重要的核心部件就是新一代的全新 Rubin GPU,其搭载了 8 颗 HBM4 超高速显存,以及 3360 亿个晶体管的规模,并升级了第三代 Transformer 引擎,具备自适应动态调整功能,综合之下在 NVFP4 的推理能力上可达到 50 PFLOPS,做到了前代 Blackwell 的 5 倍算力,训练能力也达到了 35 PFLOPS,是前代的 3.5 倍,整体性能提升实现了飞跃。并且在整体规模上相比 Blackwell 仅提升 1.6 倍,能耗比的提升同样巨大,对于各个企业来说能以更低更少的算力部署成本实现更高的运算能力。

而作为一个计算平台,肯定会涉及到同时使用多核协同的场景。为了保障多个 GPU 之间可以顺利高效的协同运行,英伟达还打造了第六代 NVLink 芯片,最多可保证 72 个 Rubin GPU 一起同时工作,可为每个 GPU 提供 3.6 TB/s 的双向带宽。

此外 Vera CPU 则是英伟达自研的新一代 Arm 结构 CPU,采用 88 个英伟达定制的 Olympus 核心,并设有英伟达多线程技术可支持 176 个线程。设有 1.5 TB 的 LPDDR5X 内存,可提供 1.2 TB/s 的内存带宽。Vera CPU 和 Rubin GPU 之间使用 NVLink C2C 高速互联方案连结,带宽可达 1.8 TB/s。

那么将这些全新科技整合在一起,就形成了本次的 NVIDIA Vera Rubin NVL72 超级平台系统,总共可提供 3.6 EFLOPS 的 NVFP4 推理算力,以及 2.5 EFLOPS 的训练算力,升级幅度相比前代 Blackwell 可谓是远超预期。相较于性能上的提升,这次的全新平台也在系统组建方面提供了大量创新,CEO 黄仁勋亲自演示了其组装过程,所有的数据线缆都被预设在机柜之内,节点托盘本身只有几根液冷管线,将一片节点插入机柜,就像把快拆硬盘架插入硬盘笼一样简单,对于企业部署来说将会省下大量的时间和精力。

黄仁勋表示,英伟达未来的目标是将 AI 完全融入物理世界中,使 AI 可以理解现实生活中的方方面面,包括物理法则以及任何的极端复杂场景。展会上发布的例子之一就是 Alpamayo 模型。这是一个自动驾驶模型,但是包含以人的思维去思考的能力,除了对于红绿灯,道路规划等常规上的判断,也可对非预设情况,安全决策这种突发情况,做出媲美人类一般的推理过程,并由 AI 给出执行这个方案的原因,这对于自动驾驶来说可谓是一大突破。该技术第一个落地的产品将会是奔驰的 CLA 系列,并在第一季度于美国上线,其后会陆续推广到全世界其他地区。

以上的种种,以及越来越多的开源大模型,都离不开 AI 对于超高算力的硬性需求,英伟达这次发布的 Vera Rubin 超级计算平台对于有助于 AI,更加迅捷清晰的理解,并落地到这个物理世界发挥至关重要的推动。


登录后才可以发布评论哦
打开小程序可以发布评论哦