快科技 9 月 10 日消息,除了宣布专门用于大规模上下文处理的 Rubin CPX,NVIDIA 还同时披露了新一代 AI 服务器,规模和性能实现了大幅度的跃升。
"Vera Rubin NVL144" 定位于 AI 训练与推理用途的旗舰产品,应该每个机架配备 36 颗 Vera CPU、144 颗 Rubin GPU,同时搭配 1.4PB/s 超高带宽的 HBM4 ( 容量没说 ) ,以及多达 75TB 存储。
算力性能在 NVFP4 数据精度下可高达 3.5 EFlops,也就是每秒 350 亿亿次,对比 GB300 NVL72 提升 3.3 倍!
"Vera Rubin NVL144 CPX" 又加入了 72 颗 Rubin CPX,组成了单个机架 144 颗 GPU、36 颗 CPU 的庞大规模。
同时,它还有 1.7PB/s 带宽的 HBM4 内存、100TB 高速存储,以及 Quantum-X800 InfiniBand 或者 Spectrum-X 以太网,搭配 ConnectX-9 NIC 网卡。
整机算力在 NVFP4 下达到了惊人的 8 EFlops,即每秒 800 亿亿次,对比 GB300 NVL72 提升了 7.5 倍。
如果有需要,可以将两台服务器组合在一起,配置和算力直接翻倍。
NVIDIA 号称,有了这样的 AI 服务器,每投入 1 亿美元,就可以换来 50 亿美元的收获。
NVIDIA 最新公布的路线图显示,Rubin GPU 和相关系统将在 2026 年底开始登场,2027 年推出升级版 Rubin Ultra,2028 年则是全新的再下一代 Feyman GPU,继续搭配 Vera CPU。
登录后才可以发布评论哦
打开小程序可以发布评论哦