快科技 3 月 17 日消息,在圣何塞举办的 NVIDIA GTC 2026 大会上,Intel 正式宣布一项重磅合作,其 Xeon 6(至强 6)处理器将成为 NVIDIA 下一代旗舰 AI 服务器系统 DGX Rubin NVL8 的主机 CPU。
这一合作让两家企业在 x86 架构上的合作更进一步,此前在基于 DGX B300 Blackwell 的平台上,双方就已采用 Xeon 6776P 处理器建立了 x86 架构合作,这也意味着 Intel 成功 " 抱上 "NVIDIA 的大腿,在 AI 服务器领域站稳了脚跟。
据悉,DGX Rubin NVL8 是 NVIDIA 新一代旗舰 AI 服务器系统,主打智能体 AI 和推理系统等新兴应用场景。在这套系统中,主机 CPU 的作用至关重要,主要负责任务编排、内存管理、调度,以及向 GPU 加速器传输数据。
而随着 AI 推理工作负载逐渐向智能体 AI 和推理系统转型,这些工作对单核性能和内存带宽的要求也越来越高。

Intel 方面表示,至强 6 处理器通过内存容量、带宽和 I/O 性能的综合提升,刚好能满足这些需求。这款处理器所在的平台可支持高达 8TB 的系统内存,Intel 称这一点对支持键值缓存不断扩大的大型语言模型来说尤为关键。
借助 MRDIMM 技术,其内存带宽较上一代提升了 2.3 倍,能显著提升数据传输到 GPU 加速器的速度。
与此同时,PCIe 5.0 通道可实现高带宽的加速器连接,Intel 推出的 " 优先核心睿频加速 "(Priority Core Turbo)功能,还能把强劲的单线程性能集中用于编排、调度和数据传输任务,即便工作负载变得更复杂,也能保证 GPU 维持高利用率。
在安全和兼容性上,至强 6 处理器通过 Intel 信任域扩展(TDX),能为 CPU 到 GPU 的整个数据路径提供安全防护。其中 TDX 技术会通过加密反弹缓冲区,增加基于硬件的隔离和认证功能,刚好能满足 AI 推理在数据中心、云端、边缘等多场景部署时,对端到端机密计算的需求。此外,至强 6 还新增了对 NVIDIA Dynamo 推理编排框架的支持,借助这一框架,同一集群内的 CPU 和 GPU 资源可实现异构调度。
" 在这个新时代,主机 CPU 的作用至关重要。"Intel 公司副总裁兼数据中心战略项目总经理杰夫 · 麦克维表示,它直接决定着 GPU 加速系统的编排效率、内存访问速度、模型安全性以及吞吐量。
Intel 还提到,至强处理器成熟的 x86 软件生态、丰富的企业部署经验,以及与现有 AI 软件栈的良好兼容性,正是 NVIDIA 选择它的关键原因。
此次双方的合作,沿用了与 DGX B300 相同的架构基础,让 Blackwell 和 Rubin 两代产品实现了平台层面的连续性,有望推动 AI 推理技术在数据中心、云端、边缘等场景的规模化落地。



登录后才可以发布评论哦
打开小程序可以发布评论哦