当 AI 模型从云端 " 下沉 " 到手机、手表、眼镜等终端设备,本地运行变得越来越常见。这背后,离不开一项关键技术的突破——WoW 堆叠(Wafer-on-Wafer)技术。
据追风交易台,摩根士丹利最新研报深度解析了 WoW(晶圆堆叠)技术对边缘 AI 设备的革命性影响,它采用了3D 封装解决方案,让芯片 " 上下叠加 ",使终端设备也能拥有足够的算力和带宽,运行轻量 AI 模型,真正实现 " 随时、随地、即用 " 的 AI 体验。
通过该方案,WoW 能够实现 10 倍内存带宽提升和 90% 功耗降低,有望破解边缘 AI 发展瓶颈。大摩预计,WoW 市场规模将从 2025 年的 1000 万美元激增至 2030 年的 60 亿美元,复合年增长率达 257%。
大摩认为,WoW 技术有望显著加速边缘 AI 设备的普及,特别是在 AI PC、智能手机和 AI 眼镜等应用领域。随着技术成熟度提升和供应链协作加强,具备先发优势的细分内存厂商将最大受益于这一技术变革浪潮。
什么是 WoW 堆叠?它解决了什么问题?
简单来说,WoW 是一种3D 晶圆封装技术,类似于台积电的 SoIC 封装,它将逻辑芯片(比如处理器)和存储芯片(比如内存)像夹心饼一样直接垒在一起,大幅缩短两者之间的 " 距离 ",从而实现更快的带宽、更低的功耗、更小的体积。
传统的 AI 运算,尤其是生成式 AI,对 "带宽" 和 "能效" 有极高要求。比如目前主流的云端训练方案采用的高带宽存储(HBM)+GPU 组合,不仅功耗高(动辄几百瓦),而且封装复杂、成本昂贵,根本无法塞进手机或眼镜里。
" 终端 AI" 也叫 " 本地 AI" 或 " 边缘 AI",它能让设备即点即算、即用即得,比如:手机上实时语音翻译,不用联网;智能眼镜识别街景物体,及时提示路线;AI 笔记本本地运行大模型,写作、编程无延迟。
但要实现这一切,背后就必须有一颗更强大又省电的 AI 芯片,而 WoW 堆叠正是关键突破点之一:
内存带宽可提升 10-100 倍
功耗最多可降低 90%
封装体积更小,便于 " 塞进 " 边缘设备
以国内爱普半导体的 VHM 技术为例,其 WoW 方案在加密矿机中已实现量产,未来也将向 AI 手机、PC、智能眼镜等拓展。
市场潜力巨大:2030 年规模或达 60 亿美元
摩根士丹利预测 WoW 技术市场将迎来爆发式增长。
在基准情形下,WoW 总可寻址市场规模(TAM)将从 2025 年的 1000 万美元增长到 2030 年的 60 亿美元,复合年增长率高达 257%。2027 年将成为关键拐点年,TAM 预计达到 6.22 亿美元。
摩根士丹利指出,2027 年将是 WoW 技术初步放量的关键年份,主要催化剂包括主要品牌智能手机、PC 和汽车应用的采用。
汽车应用预计从 2026 年下半年开始搭载 WoW 技术,其他应用将在 2027 年跟进。大摩基准情形下,WoW 将使细分内存市场 TAM 在 2030 年翻倍;乐观情形下将实现三倍增长。
技术发展与供应链协作日趋成熟
摩根士丹利强调,WoW 技术生态系统正变得更加成熟。多家大中华区公司已申请 WoW 专利并宣布自有解决方案:
爱普半导体已与台积电、力积电等代工厂合作,实现批量生产;华邦的两层堆叠技术已成熟,可支持 3B 到 7B 模型;兆易创新与长鑫存储合作开发,4 层堆叠已成熟,8 层堆叠也在路线图中。
摩根士丹利指出,供应链协作比过去更加紧密,这主要由 SoC 客户推动,他们需要更有效的解决方案来解决边缘 AI 瓶颈。设计流程需要内存、逻辑芯片设计公司和代工厂密切合作,因为 DRAM 需要堆叠在 XPU(逻辑芯片)之上或之下。
WoW vs HBM:不是竞争,而是互补?
摩根士丹利也指出了 WoW 技术面临的主要风险。
首先是与移动 HBM 的竞争,但摩根士丹利认为两者应用场景不同,移动 HBM 主要用于边缘设备的主处理器,而 WoW 主要用于与主处理器配套的独立神经处理单元(NPU),因此不会直接竞争。
其次是技术发展风险,包括封装技术发展慢于预期、SoC 开发滞后以及供应链合作伙伴关系延迟等。
市场风险方面,消费需求疲软和半导体市场调整延长都可能影响 WoW 技术的采用速度。关税影响也可能推高 AI 设备成本,从而放缓边缘 AI 的普及。
登录后才可以发布评论哦
打开小程序可以发布评论哦