芯东西 昨天
高通连发两款AI芯片,768GB大内存猛攻数据中心,股价飙升11%
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

明年开始商用。

作者 |  ZeR0

编辑 |  漠影

芯东西 10 月 28 日报道,昨夜,高通发布面向数据中心的下一代 AI 推理优化解决方案,包括基于云端 AI 芯片Qualcomm AI200 和 AI250的加速卡及机架。

两款芯片均采用高通 Hexagon NPU,预计将分别于2026 年2027 年实现商用。

高通称,凭借该公司在 NPU 技术方面的优势,这些解决方案可提供机架级性能和出色的内存容量,以高性价比实现快速的生成式 AI 推理,有助于实现可扩展、高效且灵活的生成式 AI。

沙特支持的 AI 创企 Humain 将从 2026 年开始部署 200 兆瓦的高通新型 AI 机架。

受此消息影响,高通股价飙升 11%。

Qualcomm AI200 推出一款专用机架级 AI 推理解决方案,旨在为大语言模型和多模态模型(LLM、LMM)推理及其他 AI 工作负载提供更高的内存容量、更低的总拥有成本(TCO)和优化的性能,支持每卡768GB LPDDR

Qualcomm AI250 解决方案将首次采用基于近存计算的创新内存架构,通过提供超过 10 倍的有效内存带宽和更低的功耗,不仅支持分解式 AI 推理,还能高效利用硬件资源,同时满足客户对性能和成本的要求。

两种机架解决方案均采用直接液冷以提高热效率,采用 PCIe 进行纵向扩展,采用以太网进行横向扩展,采用机密计算以确保安全的 AI 工作负载,机架级功耗为160kW

这些解决方案都具有丰富的软件栈和与 AI 框架的无缝兼容性,使企业和开发人员能够跨数据中心部署安全、可扩展的生成式 AI。

其 AI 软件栈端到端覆盖从应用层到系统软件层,并针对 AI 推理进行了优化。开发者可通过高通的 Efficient Transformers Library 和高通 AI 推理套件,获得无缝模型导入和 Hugging Face 模型的一键部署。

高通高级副总裁兼技术规划、边缘解决方案和数据中心总经理 Durga Malladi 称,凭借 Qualcomm AI200 和 AI250,高通正在重新定义机架级 AI 推理的可能性。

Malladi 还透露,高通将单独出售其 AI 芯片和其他部件,尤其是针对那些喜欢自行设计机架的超大规模数据中心客户。其他 AI 芯片公司也可能成为高通部分数据中心部件(如 CPU)的客户。

高通数据中心路线图每年更新一次,聚焦实现业界领先的 AI 推理性能、能效和业界领先的 TCO。

近年来,高通努力摆脱对智能手机市场的依赖,将业务拓展至 PC 和汽车市场,如今又向广阔的数据中心市场发起进攻。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

高通 数据中心 ai ai芯片 智能手机
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论