英伟达正面临来自谷歌 TPU 和亚马逊 Trainium 等竞争对手的挑战,为巩固其 AI 芯片市场主导地位,公司近期展开了一系列密集的技术 " 自证 " 与公开回应。继此前通过私函反驳看空观点、公开宣称其 GPU 技术 " 领先行业一代 " 后,英伟达再次发布技术博文,强调其 GB200 NVL72 系统可将顶尖开源 AI 模型的性能提升最高 10 倍。
12 月 4 日,据媒体报道,英伟达发文称 GB200 NVL72 系统能够将顶级开源 AI 模型的性能提升多达 10 倍。该公司在周三的博客文章中重点强调了其服务器系统对混合专家模型(MoE)的优化能力,这些模型包括中国初创公司月之暗面开发的 Kimi K2 Thinking 和 DeepSeek 的 R1 模型。

英伟达一系列技术 " 自证 " 被视为对市场担忧的直接回应。此前有媒体报道称,英伟达的关键客户 Meta 正考虑在其数据中心大规模采用谷歌自研的 AI 芯片——张量处理单元(TPU)。据华尔街见闻,谷歌 TPU 直接挑战了英伟达在 AI 芯片市场超过 90% 的份额。市场担心,如果 Meta 这样的超大规模客户开始转向谷歌,将意味着英伟达坚不可摧的护城河出现了缺口。
英伟达密集发声并未改善市场担忧,公司股价近一个月跌幅已接近 10%。

GB200 NVL72 技术优势凸显
英伟达在官方博客中表示,其 GB200 NVL72 系统可以显著提高领先的开源 AI 模型的性能。博文中详细阐述了 GB200 NVL72 系统的技术优势。该系统将 72 颗 NVIDIA Blackwell GPU 集成为一个整体,提供 1.4 exaflops 的 AI 性能和 30TB 的快速共享内存。通过 NVLink Switch 连接,系统内部 GPU 间通信带宽达到 130TB/s。
在性能测试中,被 Artificial Analysis 排行榜评为最智能开源模型的 Kimi K2 Thinking 在 GB200 NVL72 系统上实现了 10 倍性能提升。DeepSeek-R1 和 Mistral Large 3 等其他顶级 MoE 模型同样获得显著性能改善。
混合专家模型(MoE)已成为前沿 AI 模型的主流选择。英伟达指出,Artificial Analysis 排行榜前 10 名的开源模型均采用 MoE 架构,包括 DeepSeek-R1、Kimi K2 Thinking 和 Mistral Large 3 等。这种架构模仿人脑工作方式,仅激活处理特定任务所需的专门 " 专家 " 模块,而非调用全部模型参数,这使得 MoE 模型能够在不成比例增加计算成本的情况下,实现更快速、高效的 token 生成。
英伟达强调,其系统通过硬件和软件的协同设计,解决了 MoE 模型在生产环境中的扩展难题,有效消除了传统部署中的性能瓶颈。
云服务商部署加速落地
英伟达透露,GB200 NVL72 系统正被主要云服务提供商和英伟达云合作伙伴部署,包括亚马逊云服务、Core42、CoreWeave、Crusoe、谷歌云、Lambda、微软 Azure、Oracle 云基础设施和 Together AI 等。
CoreWeave 联合创始人兼首席技术官 Peter Salanki 表示:" 在 CoreWeave,我们的客户正在利用我们的平台将专家混合模型投入生产。通过与英伟达的密切合作,我们能够提供紧密集成的平台。"
Fireworks AI 联合创始人兼 CEO Lin Qiao 指出:" 英伟达 GB200 NVL72 的机架规模设计使 MoE 模型服务效率显著提升,为大规模 MoE 模型服务设立了新的性能和效率标杆。" 据悉,该公司目前已在英伟达 B200 平台上部署 Kimi K2 模型,在 Artificial Analysis 排行榜上实现最高性能表现。


登录后才可以发布评论哦
打开小程序可以发布评论哦