驱动之家 5小时前
OpenAI牵头:AMD、NVIDIA、Intel、微软、博通巨头罕见联手!终于把AI网络层搞定
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 5 月 7 日消息,OpenAI 今日通过开放计算项目(OCP)正式发布 MRC(多路径可靠连接)协议,解决大规模 AI 训练中的 GPU 网络通信瓶颈。

该协议由 OpenAI 与 AMD、NVIDIA、Intel、微软和博通历时两年联合开发,目前已在搭载 NVIDIA GB200 的超算集群中投入实际使用。

MRC 要解决的核心问题是:在训练大规模 AI 模型时,单次数据传输延迟就足以导致整个训练过程中断,GPU 集体空转等待,而集群规模越大,由网络拥塞、链路和设备故障引发的延迟问题越频繁。

MRC 的方案是将单条 800Gb/s 网络接口拆分为多条更小的链路,例如将一个接口连接至 8 台不同交换机,构建 8 条独立的 100Gb/s 并行网络,而非依赖单一 800Gb/s 网络。

这一改变对集群拓扑结构的影响极为明显,一台支持 64 个 800 Gb/s 端口的交换机,在拆分后可连接 512 个 100 Gb/s 端口,使得仅用两层交换机即可实现约 13.1 万块 GPU 的全互联网络。

传统 800 Gb/s 方案则需要三到四层交换机才能达到同等规模,层数减少直接意味着延迟降低和故障点减少。

MRC 基于现有的 RDMA over RoCE(融合以太网)协议扩展,支持 GPU 和 CPU 的硬件加速远程直接内存访问。

OpenAI 已在 Oracle Cloud Infrastructure 和微软 Fairwater 超算上的 GB200 集群中部署 MRC,用于训练前沿模型。

该协议也将成为 OpenAI 正在建设的 Stargate 超算的基础网络架构,该超算目标在 2029 年部署 10GW AI 算力,过去三个月已部署超过 3GW。

MRC 协议还向整个 AI 行业开放,OpenAI 表示希望借此推动跨行业协作,共同解决 AI 基础设施中最棘手的网络难题。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

nvidia gpu amd 博通 intel
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论