科创板日报 前天
站稳AI存储C位?HBM紧缺恐成定局 但这一技术正“虎视眈眈”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

《科创板日报》10 月 3 日讯,AI 时代,存储芯片已从配角跃升为核心瓶颈与突破口。随着大模型参数规模与训练数据量的爆炸式增长,传统内存技术已成为制约算力发挥的 " 内存墙 ",而 HBM 凭借其超高带宽、低功耗和小体积特性,正成为 AI 芯片的主流选择。

全球科技巨头纷纷将 HBM 作为战略要地。

在日前的财报会上,美光特别强调,预计半导体芯片、特别是 HBM 的供不应求情况将会加剧。公司 CEO Sanjay Mehrotra 透露,当前半导体存储领域,DRAM 库存已低于目标水平,NAND 库存持续下滑;而 HBM 产能需求增长显著,产能已被锁定,预计 2026 年 HBM 出货量增速将超过整体 DRAM 水平,成为半导体存储板块的核心增长驱动力。

具体 HBM 产品中,美光表示,已与几乎所有客户就 2026 年绝大部分 HBM3E 产能达成定价协议;公司正在与客户就 HBM4 进行讨论,供应 " 非常紧张 "。

此外,华为也在近期宣布,自昇腾 950PR 开始,昇腾 AI 芯片将采用华为自研的 HBM。其中,昇腾 950 搭载自研的 HBM HiBL 1.0;昇腾 950DT 升级至 HBM HiZQ 2.0。

▌为什么是 HBM?

为何存储需求热潮中," 特别是 HBM 的供不应求情况或将加剧 "?

华尔街分析师指出,定制化 HBM(cHBM)已经从曾经的被动元件转变为具备逻辑算力的主动部件,重塑存储的角色。在这种情况下,AI 基建中,存储总体拥有成本(TCO)不断上升。

定制化 HBM 可以集成不同功能、运算能力与逻辑 Die 设计,例如 LPDDR 与 HBM 并行工作,在 HBM 堆栈中加入计算逻辑,成为性能差异化的关键。

目前,存储厂商已开始提供覆盖 HBM、逻辑 die、LPDDR、PIM 等的全栈解决方案,并与客户开展定制化 HBM 合作。

同时随着 AI 能耗的增加,存储厂商也开始强调 HBM 在节能上的价值。SK 海力士预测称,HBM 能效每改善 10%,可带来单机架 2% 的节能效果,对系统级节能有重大意义。

▌ AI 推理将迎 " 十倍增长 " " 以存代算 " 技术 " 虎视眈眈 "

以 HBM 为首的存储需求陡增背后,是 AI 推理的飞速崛起。

黄仁勋在最新采访中,重申了对 AI 推理的信心。他再次强调,AI 推理将迎来十亿倍增长。推理的量级已不是过去的 " 一次性回答 ",而是逐步演进的 " 先思考再作答 " 的动态生成,思考得越久,答案质量越高。

券商指出,人工智能技术的蓬勃发展推动大模型训练走向规模化,但真正创造持续商业价值的 核心环节在于推理过程。AI 推理算力需求正迅速超越训练,成为成本与性能的关键瓶颈。

在这一背景下,内存受益于超长上下文和多模态推理需求,处理大量序列数据或多模态信息时,高带宽于大容量内存可降低访问延迟、提升并行效率。

广发证券指出,随着 AI 推理应用快速增长,对高性能内存和分层存储的依赖愈发显著,HBM、DRAM、SSD 及 HDD 在超长上下文和多模态推理场景中发挥关键作用,高带宽内存保障模型权重和激活值的高速访问,SSD 满足高频读写与短期存储需求,HDD 提供海量长期存储支持。随着 AI 推理需求快速增长,轻量化模型部署推动存储容量需求快速攀升,预计未来整体需求将激增至数百 EB 级别。

但值得留意的是,"HBM 供不应求情况加剧 " 的另一面,是供应瓶颈下可能出现的 " 技术替代 " —— " 以存代算 "。

天风证券认为," 以存代算 " 技术通过将 AI 推理过程中的矢量数据(如 KV Cache)从昂贵的 DRAM 和 HBM 显存迁移至大容量、高性价比的 SSD 介质,实现存储层从内存向 SSD 的战略扩展,而非简单替代。其核心价值在于显著降低首 Token 时延、提升推理吞吐量,并大幅优化端到端的推理成本,为 AI 大规模落地提供可行路径。分析师进一步指出,QLC+PCIe/NVMe+CXL 有望构筑下一代 AI SSD 基座,推动 SSD 从单纯存储介质,升级为 AI 推理 " 长期记忆 " 载体。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 半导体 华为 ai芯片 半导体芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论