智东西 昨天
谷歌联手Marvel研发下一代TPU,专为AI推理打造
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

智东西

编译 | 刘煜

编辑 | 陈骏达

智东西 4 月 20 日消息,昨天,据 The Information 报道,两名直接知情人士透露,谷歌正与无晶圆厂半导体公司 Marvell 商谈合作,计划开发两款全新芯片,包括专为运行 AI 模型打造的全新 TPU,以及设计用于与谷歌 TPU 协同工作的内存处理单元。但值得一提的是,长期以来,博通一直是谷歌 TPU 的独家设计合作伙伴。

本次谷歌与 Marvell 的合作计划最快于明年完成对内存处理单元的设计,并生产近 200 万颗该单元。该合作尚未披露具体金额。消息人士补充称,由于谈判仍处于早期阶段,200 万这一数字仍有可能调整。

一名谷歌员工透露,对于新推理芯片的研发,谷歌早已开始布局规划。今年 3 月,英伟达于 GTC 大会上发布了旨在提升推理任务效率的 LPU 芯片。谷歌在其发布 LPU 之后,进一步加快了对新一代推理芯片的相关研发速度。

值得一提的是,LPU 是英伟达以 200 亿美元从 Groq 获得技术授权后研发打造的。而谷歌此次的合作对象 Marvell,曾作为 Groq 第一代 LPU 的芯片设计合作伙伴,在推理芯片设计领域积累了相应的技术与项目经验。

在合作研发层面,谷歌在芯片设计领域对博通存在单一依赖。但由于博通收费模式成本高昂,该公司按每颗量产 TPU 收取费用,随着 TPU 需求激增,谷歌的相关支出也大幅攀升。因此谷歌正寻求降低对博通依赖的途径。

不过,据 The Information 2023 年报道,谷歌早在当时就有摆脱对博通单一依赖的意图了。那时谷歌曾考虑让 Marvell 取代博通,成为其数据中心内用于连接服务器与以太网交换机的网络接口芯片供应商。

去年,谷歌为了降低对博通的单一依赖,引入了中国台湾厂商联发科参与 TPU 芯片的设计与生产。

但在本月早些时候,博通与谷歌签署新协议,将为谷歌下一代 AI 数据中心开发并供应定制化 TPU 及网络组件,合作期限延长至 2031 年。这意味着博通在谷歌的芯片体系中仍占据着核心地位。

需要补充的是,摩根士丹利曾预计,谷歌 2027 年 TPU 产量约为 600 万颗。不过,本次双方合作中全新 TPU 的设计完成时间及谷歌规划的量产规模,目前仍未明确。

此外,谷歌当前的芯片均由台积电代工生产,新款芯片最终由台积电还是其他厂商制造,目前也未确定。

在谷歌与 Marvell 协商此次合作前,谷歌也曾向 Marvell 采购过 CXL 控制器芯片。据两名谷歌员工介绍,这类芯片用于管理数据中心内服务器之间的内存共享。不过采购的均为现货标准产品,并未涉及定制化合作。

多年来,谷歌仅在自有数据中心内部署 TPU,用于支撑搜索、YouTube 及 Gemini 大模型等业务,且仅对谷歌云客户开放。据 The Information 报道,这一局面在去年出现转变:谷歌开始向客户提供 TPU 算力租赁服务,支持客户将其部署于非谷歌数据中心,直接挑战英伟达在 AI 芯片领域的主导地位。

截至目前,谷歌 TPU 已被包括 Anthropic、Meta 以及苹果在内的客户采用。

而 Marvell 主营数据中心通用网络、存储及光互联芯片设计,同时为客户提供定制化芯片设计服务,该业务已成为其增长最快的板块。

结语:AI Agent 推高算力需求,专用推理芯片研发趋势持续升温

谷歌与 Marvell 的此次合作,不止为降低谷歌对博通的单一依赖。

由于 AI 推理环节正走向精细化分工,推理任务并非通用处理器就能一概胜任,该任务部分环节依赖峰值算力,另一部分则受限于内存读写与数据调度效率。而谷歌与 Marvell 此次合作研发可与 TPU 协同工作的内存处理单元,正是这一行业趋势下的产物。

此外,当前 AI Agent 对算力的消耗远高于聊天机器人等传统 AI 应用,随着各类 AI 企业持续推出更复杂的智能体产品,专用推理芯片市场也进入快速发展阶段。

除谷歌外,OpenAI 已于 4 月中旬与 AI 芯片公司 Cerebras 达成协议,计划斥资超 200 亿美元采购其推理芯片,同时该公司也在与博通合作研发自研推理芯片。

综合来说,为不同任务搭配专用推理芯片,而非依靠单一处理器包揽全部工作,也在逐渐成为头部厂商提升效率、控制成本的选择趋势。在此趋势下,AI 芯片有望加速从通用化路线,向更贴合场景、更聚焦专业功能的方向分化发展。

智东西

编译 | 刘煜

编辑 | 陈骏达

智东西 4 月 20 日消息,昨天,据 The Information 报道,两名直接知情人士透露,谷歌正与无晶圆厂半导体公司 Marvell 商谈合作,计划开发两款全新芯片,包括专为运行 AI 模型打造的全新 TPU,以及设计用于与谷歌 TPU 协同工作的内存处理单元。但值得一提的是,长期以来,博通一直是谷歌 TPU 的独家设计合作伙伴。

本次谷歌与 Marvell 的合作计划最快于明年完成对内存处理单元的设计,并生产近 200 万颗该单元。该合作尚未披露具体金额。消息人士补充称,由于谈判仍处于早期阶段,200 万这一数字仍有可能调整。

一名谷歌员工透露,对于新推理芯片的研发,谷歌早已开始布局规划。今年 3 月,英伟达于 GTC 大会上发布了旨在提升推理任务效率的 LPU 芯片。谷歌在其发布 LPU 之后,进一步加快了对新一代推理芯片的相关研发速度。

值得一提的是,LPU 是英伟达以 200 亿美元从 Groq 获得技术授权后研发打造的。而谷歌此次的合作对象 Marvell,曾作为 Groq 第一代 LPU 的芯片设计合作伙伴,在推理芯片设计领域积累了相应的技术与项目经验。

在合作研发层面,谷歌在芯片设计领域对博通存在单一依赖。但由于博通收费模式成本高昂,该公司按每颗量产 TPU 收取费用,随着 TPU 需求激增,谷歌的相关支出也大幅攀升。因此谷歌正寻求降低对博通依赖的途径。

不过,据 The Information 2023 年报道,谷歌早在当时就有摆脱对博通单一依赖的意图了。那时谷歌曾考虑让 Marvell 取代博通,成为其数据中心内用于连接服务器与以太网交换机的网络接口芯片供应商。

去年,谷歌为了降低对博通的单一依赖,引入了中国台湾厂商联发科参与 TPU 芯片的设计与生产。

但在本月早些时候,博通与谷歌签署新协议,将为谷歌下一代 AI 数据中心开发并供应定制化 TPU 及网络组件,合作期限延长至 2031 年。这意味着博通在谷歌的芯片体系中仍占据着核心地位。

需要补充的是,摩根士丹利曾预计,谷歌 2027 年 TPU 产量约为 600 万颗。不过,本次双方合作中全新 TPU 的设计完成时间及谷歌规划的量产规模,目前仍未明确。

此外,谷歌当前的芯片均由台积电代工生产,新款芯片最终由台积电还是其他厂商制造,目前也未确定。

在谷歌与 Marvell 协商此次合作前,谷歌也曾向 Marvell 采购过 CXL 控制器芯片。据两名谷歌员工介绍,这类芯片用于管理数据中心内服务器之间的内存共享。不过采购的均为现货标准产品,并未涉及定制化合作。

多年来,谷歌仅在自有数据中心内部署 TPU,用于支撑搜索、YouTube 及 Gemini 大模型等业务,且仅对谷歌云客户开放。据 The Information 报道,这一局面在去年出现转变:谷歌开始向客户提供 TPU 算力租赁服务,支持客户将其部署于非谷歌数据中心,直接挑战英伟达在 AI 芯片领域的主导地位。

截至目前,谷歌 TPU 已被包括 Anthropic、Meta 以及苹果在内的客户采用。

而 Marvell 主营数据中心通用网络、存储及光互联芯片设计,同时为客户提供定制化芯片设计服务,该业务已成为其增长最快的板块。

结语:AI Agent 推高算力需求,专用推理芯片研发趋势持续升温

谷歌与 Marvell 的此次合作,不止为降低谷歌对博通的单一依赖。

由于 AI 推理环节正走向精细化分工,推理任务并非通用处理器就能一概胜任,该任务部分环节依赖峰值算力,另一部分则受限于内存读写与数据调度效率。而谷歌与 Marvell 此次合作研发可与 TPU 协同工作的内存处理单元,正是这一行业趋势下的产物。

此外,当前 AI Agent 对算力的消耗远高于聊天机器人等传统 AI 应用,随着各类 AI 企业持续推出更复杂的智能体产品,专用推理芯片市场也进入快速发展阶段。

除谷歌外,OpenAI 已于 4 月中旬与 AI 芯片公司 Cerebras 达成协议,计划斥资超 200 亿美元采购其推理芯片,同时该公司也在与博通合作研发自研推理芯片。

综合来说,为不同任务搭配专用推理芯片,而非依靠单一处理器包揽全部工作,也在逐渐成为头部厂商提升效率、控制成本的选择趋势。在此趋势下,AI 芯片有望加速从通用化路线,向更贴合场景、更聚焦专业功能的方向分化发展。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 芯片 博通 ai marvell
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论