科创板日报 10-27
高通进军数据中心AI芯片业务:主打大内存、性价比 股价直线拉涨
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

财联社 10 月 27 日讯(编辑 史正丞)过往只是在 CPU 里添一点 "AI 算力 " 的高通突然在周一放出大招:推出机架级人工智能加速器,正面挑战 " 绿色巨人 " 英伟达。

高通在公告中宣布,推出高通 AI200 和 AI250 芯片和机架产品,这些产品均采用公司的神经处理单元(NPU)技术。

(来源:公司官网)

受此消息刺激,高通股价周一开盘后直线拉涨,日内涨幅一度接近 20%。截至发稿,涨幅收窄至 10% 左右。

公司 " 划重点 " 称,两款产品都有卓越的内存容量,能够以行业领先的总体拥有成本(TCO)提供 AI 推理所需的卓越性能。

其中,预定于 2026 年上市的 AI200 单卡支持768GB 的 LPDDR 内存(低功耗动态随机存取存储器)。作为对比,英伟达最新的 GB300 每个 GPU 配备 288GB 的 HBM3e 内存。高通强调,这款芯片侧重于推理(运行 AI 模型),而不是训练。

更玄乎的是,高通透露将于 2027 年上市的 AI250 解决方案将首发一种基于 " 近存储计算(near-memory computing)" 的创新内存架构,为 AI 推理工作负载带来 " 跨代的效率与性能飞跃 "。高通声称,这款芯片在有效内存带宽方面提升超过 10 倍,同时显著降低功耗。

据悉,两款机架解决方案均采用直接液冷的散热方案,支持通过 PCIe 进行纵向扩展,以及通过以太网进行横向扩展。高通透露,单机柜功耗为 160 千瓦。

高通技术规划、边缘解决方案与数据中心高级副总裁兼总经理 Durga Malladi 在公告中表示:" 通过高通 AI200 和 AI250。我们正在重新定义机柜级 AI 推理的可能性。这些创新的 AI 基础设施解决方案,使客户能够以史无前例的总拥有成本部署生成式 AI,同时保持现代数据中心所需的灵活性与安全性。"

高通也在周一宣布,将实现类似于英伟达和 AMD 的产品发布节奏——每年都推出一款新的算力芯片

公司发言人拒绝透露芯片或产品的具体价格,或哪家代工厂正在制造这些处理器。三星和台积电都将高通列为客户。

值得一提的是,高通今年 5 月曾与沙特国家级人工智能企业 Humain 签署合作协议。高通也在周一宣布,Humain 是这款新芯片的首个用户,目标是从 2026 年起部署 200 兆瓦的 AI200 和 AI250 机架解决方案

(来源:高通)

这两块人工智能芯片也代表着高通加速战略转变:此前高通主要专注于无线连接和移动设备半导体,并非大型数据中心芯片。

目前高通的绝大部分营收仍来自手机芯片。在最近一个财季中,高通共取得 89.93 亿美元的半导体收入,其中手机业务贡献 63.3 亿美元。但智能手机的销量增长趋缓,叠加苹果等大客户转向自研芯片,逼着高通迈出开拓的步伐。

麦肯锡曾预期,到 2030 年用于数据中心的资本支出将达到近 6.7 万亿美元,其中大部分将花在 AI 芯片系统上。虽然该行业目前仍由英伟达主导,但 OpenAI、谷歌、亚马逊等公司一直在寻找替代方案,甚至自己下场研发芯片。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

高通 数据中心 英伟达 人工智能 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论