全天候科技 前天
“HBM之父”:高带宽闪存(HBF)商业化进程超预期,或将在2-3年内集成到GPU,市场规模将超HBM
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

高带宽闪存(HBF)商业化进程加速,这一被视为 "NAND 版 HBM" 的新型存储技术有望比预期更早落地。韩国科学技术院教授、被称为 "HBM 之父 " 的 Kim Joungho 近日透露,三星电子与 SanDisk 计划在 2027 年底至 2028 年初将 HBF 集成到英伟达、AMD 及谷歌的产品中。

Kim Joungho 指出,得益于 HBM 积累的工艺与设计经验,HBF 的商业化进程将远快于当年 HBM 的开发周期。他预测 HBF 将在 HBM6 推出阶段实现广泛应用,并估计到 2038 年左右,其市场规模有望超越 HBM。

AI 工作负载的持续增长是推动 HBF 发展的关键动力。与传统基于 DRAM 的 HBM 相比,HBF 通过垂直堆叠 NAND 闪存,在保持高带宽的同时提供约 10 倍容量,尤其适合 AI 推理等大容量场景。目前三星电子和 SK 海力士已与 SanDisk 签署谅解备忘录,共同推进 HBF 标准化,目标在 2027 年将产品推向市场。

HBF 技术优势:容量与带宽的平衡

HBF 采用类似 HBM 的垂直堆叠架构,但堆叠的是 NAND 闪存而非 DRAM 芯片,这一关键差异带来显著的容量提升。据行业分析,HBF 带宽可超过 1638 GB/s,远高于 NVMe PCIe 4.0 SSD 约 7 GB/s 的带宽;其容量预计可达 512GB,显著超越 HBM4 的 64GB 上限。

Kim Joungho 进一步阐释了 HBF 在 AI 工作流中的定位:当前 GPU 进行 AI 推理时需从 HBM 读取变量数据,未来这一任务可由 HBF 承担。尽管 HBM 速度更快,但 HBF 能提供约 10 倍于 HBM 的容量,更适合大容量数据处理场景。

技术限制方面,Kim Joungho 指出 HBF 支持无限次读取,但写入次数受限(约 10 万次),这要求 OpenAI、谷歌等企业在软件设计中需构建以读取为中心的优化架构。他生动比喻道:

" 若将 HBM 比作家庭书架,HBF 则如同去图书馆学习——速度稍缓,却拥有更庞大的知识库可供调用。"

产业布局:存储巨头加速推进

SK 海力士预计将于本月晚些时候推出 HBF 试用版并进行技术演示。此前,三星电子和 SK 海力士已与 SanDisk 签署谅解备忘录,共同成立联合联盟以推进 HBF 的标准化进程。目前,两家公司均在积极开发相关产品。

据 TrendForce,SanDisk 已于 2025 年 2 月率先发布 HBF 原型,并成立了技术顾问委员会。同年 8 月,该公司与 SK 海力士签署谅解备忘录,旨在推动规格标准化,计划于 2026 年下半年交付工程样品,2027 年初实现商用。三星电子则已启动自有 HBF 产品的概念设计阶段。

HBF 的技术实现主要依托硅穿孔(TSV)技术完成多层 NAND 芯片的垂直堆叠,采用先进的 3D 堆叠架构与芯片到晶圆键合工艺。每个封装可堆叠多达 16 颗 NAND 芯片,支持多阵列并行访问,带宽可达 1.6TB/s 至 3.2TB/s,与 HBM3 性能持平。单堆栈容量最高为 512GB,若采用 8 堆栈配置,总容量可达 4TB,相当于 HBM 容量的 8 至 16 倍。

未来架构:从 HBM6 到 " 内存工厂 "

Kim Joungho 预测,HBF 将在 HBM6 推广阶段实现广泛应用。他指出,进入 HBM6 时代后,系统将不再依赖单一堆栈,而是通过互联形成 " 存储集群 ",类似于现代住宅综合体的构建逻辑。基于 DRAM 的 HBM 受容量限制明显,而采用 NAND 堆叠的 HBF 将有效填补这一缺口。

在系统架构演进方面,Kim Joungho 提出了更为精简的数据通路构想。当前 GPU 获取数据需经历存储网络、数据处理器与 GPU 管道的复杂传输流程,而未来有望实现数据在 HBM 之后的近端直接处理。这一被称为 " 内存工厂 " 的架构预计将在 HBM7 阶段出现,极大提升数据处理效率。

HBF 未来将与 HBM 并置,部署于 GPU 等 AI 加速器周围。Kim Joungho 表示:" 我相信在 2 至 3 年内,HBF 这一术语将变得耳熟能详。" 他进一步指出,此后 HBF 将进入快速发展期,并逐步承载起后端数据存储的核心角色。

展望长期市场,Kim Joungho 预测到 2038 年左右,HBF 的市场规模有望超越 HBM。这一判断基于 AI 推理场景对高容量存储的持续需求,以及 NAND 闪存在存储密度上相对于 DRAM 的天然优势。不过,受 NAND 物理特性限制,HBF 延迟高于 DRAM,因此更适用于读取密集的 AI 推理任务,而非对延迟极为敏感的应用场景。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

海力士 ai gpu 三星电子 闪存
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论