NAND 颗粒芯片,是目前 SSD 中最为常见的存储介质,对于民用消费级而言,最快的 PCIe5.0 SSD 速率已经达到了 15GB/s,这个速度已经是非常快了。但是对于 AI 推理服务器来说,即使是最新的 PCIe 6.0 SSD,速率高达 28GB/s 都不够用。
目前的 AI 推理服务器主要依赖 HBM 处理数据,虽然 HBM 有着极快的速度但是容量非常有限,并且成本非常昂贵,当处理超大模型时,一旦 HBM 容量不足以容纳全部数据,就不得不与 SSD 或系统 DRAM 交换数据,从而造成性能上的瓶颈。
于是,存储巨头 SK 海力士与闪迪宣布联手推出新的高带宽闪存 HBF 标准。二者于 2026 年 2 月 25 日正式启动 HBF 的全球标准化进程。其核心目标是填补 HBM 与 SSD 之间的性能与容量断层,解决大模型 AI 推理的内存瓶颈。

HBF 并非是 HBM 的替代品,而是介于 HBM 和 SSD 之间的全新层级。容量上比 HBM 大得多(8-16 倍),带宽又远高于 SSD 的中间层,同时成本上还比 HBM 低得多。它可以直接与 AI 服务器紧密集成,就像一个超大容量的 " 近处理器缓存 ",让服务器能快速访问海量数据,减少等待 SSD 的时间。

在技术原理上,HBF 本质上还是基于 NAND 闪存,而非 HBM 所属的 DRAM。通过 BiCS 路线图中的 CBA 技术和专有 3D 堆叠技术,以做到类似 HBM4 的物理尺寸和功耗,从而实现在硬件接口上完全兼容 HBM。服务器布局无需做大规模修改,即可直接实现 HBM+HBF 的混合部署,甚至全部替换为 HBF,硬件改造成本极低。

第一代 HBF 预计最高可达 1.6TB/s 的读取带宽,16 芯片堆栈,总容量可高达 512GB。根据闪迪的内部测试显示,在 Llama 3.1 405B 模型中与无容量限制的 HBM 性能差距可控制在 2.2% 以内。一旦成功落地并获得广泛应用,HBF 可能成为破解当前 AI 算力内存瓶颈的关键拼图。而对于普通消费者而言,HBF 的应用也许会减少对 HBM 的产能依赖,长远看或许有助于提升 DRAM 内存的产能。


登录后才可以发布评论哦
打开小程序可以发布评论哦