太平洋电脑网 前天
高通发布AI200与AI250数据中心芯片,单卡支持768GB LPDDR5内存
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

高通正式推出 AI200 与 AI250 两款数据中心加速器,产品核心聚焦内存容量与数据传输效率。其中,AI200 加速器卡支持高达 768GB   LPDDR 内存,可减少大型语言模型与多模态模型运行所需的硬件部件数量,同时避免频繁的卡外数据传输。

AI250 则采用近内存计算布局,该设计旨在提升推理过程中的有效内存带宽。推理场景中,工作负载常因反复访问键值缓存而陷入停滞,这一架构恰好可解决此问题。高通表示,该架构能使有效内存带宽提升   10   倍以上,同时降低功耗。

高通 CEO   Cristiano   Amon 表示:" 高通推出基于 AI200 与 AI250 芯片的加速器卡及整机柜产品,为数据中心 AI 工作负载提供行业领先的机柜级推理性能与内存效率。"

两款产品均提供加速器卡与全液冷机柜两种形态。机柜采用 PCIe 接口实现纵向扩展配置,通过以太网构建横向扩展集群。单个整机柜的功耗为 160 千瓦,与其他厂商现有 GPU 推理机柜处于同一级别。产品上市将分阶段推进,AI200 计划于 2026 年推出,AI250 则预计在 2027 年上市。此外,高通还披露其数据中心产品路线图将保持年度更新节奏,并确认 HUMAIN 为早期客户之一,该客户计划部署的容量最高可达 200 兆瓦。

各厂商数据中心芯片内存规格对比

AMD   Instinct   MI350X:288GB   HBM3e 内存,带宽 8TB/s;其继任型号 MI400 最高将支持   432GB   内存

NVIDIA   B200 系列:单 GPU 约 180GB   HBM3e 内存

Intel   Gaudi   3:128GB   HBM2e 内存

从上述数据可见,高通的产品定位并非以 HBM 内存容量为竞争点,而是以单卡总内存容量形成差异化优势。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

高通 数据中心 amd 芯片 gpu
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论