快科技 10 月 28 日消息,高通今日宣布,推出面向数据中心的下一代 AI 推理优化解决方案:基于 Qualcomm AI200 与 AI250 芯片的加速卡及机架系统。
两款解决方案以业界先进的总体拥有成本(TCO),为高速数据中心生成式 AI 推理提供机架级(rack-scale)性能与卓越内存容量。

其中,Qualcomm AI200 带来专为机架级 AI 推理打造的解决方案,为大语言模型(LLM)与多模态模型(LMM)推理及其他 AI 工作负载提供低总体拥有成本与优化性能。
每张加速卡支持 768GB LPDDR 内存,实现更高内存容量与更低成本,为 AI 推理提供卓越的扩展性与灵活性。
而 Qualcomm AI250 解决方案将首发基于近存计算(Near-Memory Computing)的创新内存架构,实现超过 10 倍的有效内存带宽提升并显著降低功耗,为 AI 推理工作负载带来能效与性能的跨越性提升。
该架构支持解耦式 AI 推理,实现硬件资源的高效利用,同时满足客户性能与成本需求。
两款机架解决方案均支持直接液冷散热,以提升散热效率,支持 PCIe 纵向扩展与以太网横向扩展,并具备机密计算,保障 AI 工作负载的安全性,整机架功耗为 160 千瓦。
根据高通规划,Qualcomm AI200 与 AI250 预计将分别于 2026 年和 2027 年实现商用。

 
    

登录后才可以发布评论哦
打开小程序可以发布评论哦