全天候科技 4小时前
谷歌寻求与Marvell合作开发AI推理芯片,加速摆脱对博通依赖
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

谷歌正寻求与芯片设计商 Marvell Technology 合作,开发两款专为 AI 推理工作负载定制的新芯片,此举是谷歌系统性削减对长期合作伙伴博通依赖的最新举措,也折射出 AI 行业对推理芯片需求的急剧升温。

据 The Information 19 日报道,知情人士透露,谷歌与 Marvell 的谈判涉及两款芯片:一款是配合谷歌张量处理器(TPU)运行的内存处理单元(MPU),另一款是专为运行 AI 模型而设计的新型 TPU。与谷歌此前向 Marvell 采购现货芯片不同,此次合作旨在为谷歌量身定制专属半导体产品。

此次谈判对芯片市场格局具有直接影响。博通股价面临潜在压力——尽管博通本月刚与谷歌签署了延续至 2031 年的新协议,但谷歌多元化供应商的战略意图已愈发清晰。与此同时,Marvell 有望进一步扩大其定制芯片业务版图,该业务目前已是其增速最快的板块。

两款新芯片:分工明确,直指推理效率

据两位知情人士透露,谷歌与 Marvell 合作开发的内存处理单元将与现有 TPU 协同工作,根据计算需求与内存需求的差异,在两类芯片之间动态分配 AI 工作负载。这一设计思路源于推理任务的内在异质性——生成响应的某些步骤对算力要求极高,另一些步骤则受制于芯片读写内存的速度,单一处理器难以兼顾两者。

谷歌计划生产近 200 万个内存处理单元,但知情人士指出,由于谈判仍处于早期阶段,该数字存在变动可能。作为参照,摩根士丹利估计谷歌 2027 年的 TPU 产量约为 600 万个。双方目标是最快于明年完成内存处理单元的设计定稿,随后移交试产。

第二款芯片——专为推理场景打造的新型 TPU ——的设计完成时间及计划产量目前尚不明确。谷歌目前在台积电生产芯片,新芯片是否仍由台积电代工同样有待确认。

推理芯片军备竞赛提速,英伟达发布 LPU 成催化剂

谷歌加速推进这一合作,部分原因在于英伟达的竞争压力。

据一名谷歌员工透露,谷歌此前已有开发推理芯片的计划,英伟达在今年 3 月 GTC 大会上发布语言处理单元(LPU)后,谷歌随即加快了相关工作。英伟达的 LPU 基于其以 200 亿美元从初创公司 Groq 授权的技术构建,而 Marvell 正是 Groq 第一代 LPU 的芯片设计合作伙伴——这意味着 Marvell 已具备设计推理芯片的实战经验。

推理芯片需求的爆发,根本上源于 AI 产品形态的演进。随着自主智能体等更复杂的 AI 应用落地,其所需算力远超传统聊天机器人。OpenAI 近期与 Cerebras 签署了逾 200 亿美元的推理芯片采购协议,同时也在与博通联合开发自有推理芯片,行业整体正加速布局这一赛道。

去博通化:战略意图明确,但进程仍受制约

谷歌寻求与 Marvell 合作,是其自 2023 年以来持续推进供应商多元化战略的组成部分。博通长期作为谷歌 TPU 的唯一设计合作伙伴,并按每颗 TPU 产量收取授权费——随着 TPU 需求激增,谷歌支付给博通的费用水涨船高,这是谷歌寻求替代方案的核心动因。

谷歌已于去年引入联发科参与 TPU 芯片的设计与生产。此次与 Marvell 的谈判,则进一步拓宽了谷歌的合作伙伴矩阵。谷歌此前已向 Marvell 采购过 CXL 控制器芯片,用于管理数据中心内服务器间的内存共享,这段合作经历为双方建立了互信基础。

然而,博通的核心地位短期内难以撼动。博通本月刚与谷歌签署新协议,将为谷歌下一代 AI 数据中心机架提供定制 TPU 及网络组件,合作期限延伸至 2031 年。这表明,谷歌的多元化战略更多是在现有格局上叠加新选项,而非彻底切换。

对 Marvell 而言,与谷歌的深度合作意味着其定制芯片业务有望再获重量级客户背书。Marvell 的主营业务涵盖数据中心标准网络、存储及光互联芯片,但近年来协助客户设计专属芯片的定制业务已成为其增速最快的板块。

谷歌 TPU 的商业化进程也为此次合作提供了更广阔的市场想象空间。谷歌去年开始向非谷歌数据中心的客户租赁 TPU,直接挑战英伟达在 AI 芯片市场的主导地位,Anthropic、Meta 和苹果均已成为 TPU 客户。若新型推理芯片研发顺利,其潜在市场将不局限于谷歌内部需求。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

芯片 谷歌 marvell ai 博通
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论