全球TMT 08-12
Supermicro推出新系统,针对大规模AI训练和云规模推理工作负载
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

(全球 TMT2025 年 8 月 12 日讯)Supermicro, Inc. 宣布扩展其 NVIDIA Blackwell 系统产品组合。全新 4U DLC-2 液冷式 NVIDIA HGX B200 系统准备大量出货,并推出风冷式 8U 前端输入和输出 ( I/O ) 系统。Supermicro 的新系统针对最严苛的大规模 AI 训练和云规模推理工作负载,简化了空气或液体冷却 AI 基础设施的部署、管理和维护,并设计支持即将推出的 NVIDIA HGX B300 平台。

Supermicro 的 DLC-2 代表了下一代直接液体冷却解决方案,专为满足 AI 优化数据中心不断增长的需求而设计。Supermicro 现在提供最广泛的 NVIDIA HGX B200 解决方案产品组合之一,包括两个新的前端 I/O 系统和六个后端 I/O 系统,允许客户选择最优化的 CPU、内存、网络、存储和冷却配置。除了系统架构改进外,Supermicro 还对组件进行了微调,以最大限度地提高 AI 数据中心工作负载的效率、性能和成本节约。升级的内存扩展功能,配备 32 个 DIMM 插槽,显著提升系统内存配置的灵活性,能够实现大容量内存。

所有 Supermicro 4U 液冷系统、8U 和 10U 风冷系统,均针对 NVIDIA HGX B200 8-GPU 进行了优化。与 Hopper 一代 GPU 相比,NVIDIA 的 Blackwell 平台可将实时推理性能提高多达 15 倍,LLM 的训练速度提高了 3 倍。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 基础设施 gpu 数据中心
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论