高通正式推出 AI200 与 AI250 两款数据中心加速器,产品核心聚焦内存容量与数据传输效率。其中,AI200 加速器卡支持高达 768GB LPDDR 内存,可减少大型语言模型与多模态模型运行所需的硬件部件数量,同时避免频繁的卡外数据传输。

AI250 则采用近内存计算布局,该设计旨在提升推理过程中的有效内存带宽。推理场景中,工作负载常因反复访问键值缓存而陷入停滞,这一架构恰好可解决此问题。高通表示,该架构能使有效内存带宽提升 10 倍以上,同时降低功耗。
高通 CEO Cristiano Amon 表示:" 高通推出基于 AI200 与 AI250 芯片的加速器卡及整机柜产品,为数据中心 AI 工作负载提供行业领先的机柜级推理性能与内存效率。"

两款产品均提供加速器卡与全液冷机柜两种形态。机柜采用 PCIe 接口实现纵向扩展配置,通过以太网构建横向扩展集群。单个整机柜的功耗为 160 千瓦,与其他厂商现有 GPU 推理机柜处于同一级别。产品上市将分阶段推进,AI200 计划于 2026 年推出,AI250 则预计在 2027 年上市。此外,高通还披露其数据中心产品路线图将保持年度更新节奏,并确认 HUMAIN 为早期客户之一,该客户计划部署的容量最高可达 200 兆瓦。
各厂商数据中心芯片内存规格对比
AMD Instinct MI350X:288GB HBM3e 内存,带宽 8TB/s;其继任型号 MI400 最高将支持 432GB 内存
NVIDIA B200 系列:单 GPU 约 180GB HBM3e 内存
Intel Gaudi 3:128GB HBM2e 内存
从上述数据可见,高通的产品定位并非以 HBM 内存容量为竞争点,而是以单卡总内存容量形成差异化优势。
 
    

登录后才可以发布评论哦
打开小程序可以发布评论哦