Marvell 刚刚结束的 Custom AI 投资者日透露出一个明确信号:AI 芯片正在从 " 通用 GPU 拼装 " 走向 " 高度定制的系统级协同 "。Marvell 不再只是一个芯片设计公司,而是 AI 公司打造算力底座时的关键基础设施合作方。
Marvell 将 2028 年数据中心潜在市场规模(TAM)的预期,从去年的 750 亿美元上修至 940 亿美元,其中定制计算(XPU)及其配套组件市场规模达到 550 亿美元。
Marvell 指出,定制计算(XPU)和 XPU Attach ( 配套组件 ) 是增长最快的两大领域 。过去一年,定制计算的市场增长了近 30%,互连(interconnect)增长了约 37% 。Marvell 的云收入未来将全面转向 AI 收入,这反映了 AI 在所有应用和云基础设施中的深度融合,云正成为 AI 的 " 工厂 " 。
AI 芯片已进入 " 系统定制 " 时代
Marvell 强调:定制化芯片是满足新型工作负载需求的关键,是 AI 基础设施的未来,并且正在 " 每个云端 " 发生。
从核心 XPU 芯片,到配套的高带宽内存(HBM)、互联控制、供电等 "XPU Attach" 模块,客户都在为自己的 AI 应用场景打造专属系统。
公司 CEO Matt Murphy 在大会上指出:" 如果你现在才开始准备做定制芯片,那已经太晚了。"Marvell 自 2018 年起押注定制方向,今天已经形成完整体系。
TAM 大幅上修,至 940 亿美元
在去年披露的 750 亿美元市场预期基础上,Marvell 今年将定制芯片的 2028 年目标市场规模(TAM)上修至940 亿美元,年复合增速达 35%。其中:
定制 XPU:400 亿美元,CAGR(复合年增长率)47%
XPU 配套组件:150 亿美元,CAGR 高达 90%,几乎每年翻倍
Marvell 预计,云收入未来将全面转向 AI 收入,反映了 AI 在所有应用和云基础设施中的深度融合。
团队还观察到,工作负载正趋于多样化,采用专用芯片在成本与性能方面具有显著优势。Marvell 指出,相较于 GPU,XPU 在工作负载中能提供更优性能。当前 XPU 在 AI 计算市场占比约 25%,Marvell 认为随着 ASIC 供应商技术突破,这一份额有望继续提升。
客户结构变化:新兴大型 AI 算力自建者与主权 AI 浮出水面
传统云计算四巨头(亚马逊 AWS、微软 Azure、谷歌、Meta)仍然是主力,但 Marvell 指出,Emerging Hyperscalers(新兴大型 AI 算力自建者,例如 xAI、Tesla 等)正在崛起,开始自主建设 AI 集群并推进定制芯片。
与此同时,"Sovereign AI"(由国家推动的本地 AI 基础设施)也成为全新增长方向,多个国家已展开投资,这将推动更多 AI 芯片定制需求在全球范围内爆发。
Marvell 已拿下 18 个客户 Socket,未来仍有 50+ 项目在洽谈中
当前,Marvell 已经拿下 18 个定制 Socket(客户定制芯片项目单元)项目,多为长期多代项目:
其中 5 个为核心 XPU 项目
13 个为 XPU 配套组件相关项目
此外,Marvell 还在积极跟进超过 50 个新项目机会,覆盖 10+ 家客户,潜在生命周期收入合计可达 750 亿美元。
Marvell 预计多个 Socket 将在2026-2027 年进入量产,特别是一颗 " 重量级 XPU",将成为推动收入加速的关键拐点。
Marvell 设定了到 2028 年在定制计算市场获得 20% 市场份额的目标。公司透露,几年前其市场份额还不足 5%,如今已达到 13%。20% 的份额是 " 最佳预估 ",也是合理的下一步目标。
当被问及是否 " 已深入参与继当前 3 纳米设计后的下一代项目开发 "(主要客户为亚马逊)时,Marvell 明确回答 " 当然 ",并解释了产品迭代周期要求他们必须并行开发芯片(即确认了 T4 和 MAIA 3 项目)。
技术突破:SRAM、HBM 与 Die-to-Die 互联
Marvell 在本次活动中展示了多个关键模块的技术突破:
2nm 定制 SRAM:带宽密度是市面主流 IP 的 17 倍,待机功耗降低 66%
自研 HBM 方案:通过底层 Die-to-Die 互联,腾出 1.7 倍可用核心面积,功耗降低 75%
Die-to-Die 通信:带宽密度超过 10 Tbps/mm,功耗低至亚皮焦(sub-pJ/bit)级别
Co-Packaged Optics:将光通信直接整合进封装,解决传统铜线远距离低能效问题
这些模块是支撑高性能 AI 训练和推理架构扩展的基础能力。
登录后才可以发布评论哦
打开小程序可以发布评论哦