当 AI 从 " 生成 " 走向 " 自主行动 ",算力的瓶颈可能将从 GPU 转移到内存。
据韩国《亚洲经济》等当地媒体报道,被业界誉为 "HBM 之父 " 的韩国科学技术院(KAIST)教授 Joungho Kim 近日发出预言:当前由英伟达主导的 GPU 中心化 AI 架构,终将被以内存为核心的新架构所取代。
这一判断的背后,是 AI 应用形态的根本性转变。从生成式 AI 迈向智能体 AI(Agentic AI),系统需要同时处理海量文档、视频及多模态数据—— Kim 将这一趋势称为 " 上下文工程 "(context engineering)的崛起。他指出,为保障速度与精度,内存带宽和容量必须提升最高1000 倍。
数字更为惊人的是需求端:据 Money Today Broadcasting 早前引述 Kim 的说法,输入规模若扩大 100 至 1000 倍,内存需求可能呈指数级跃升,总量膨胀幅度或高达100 万倍。
HBM 将触及天花板,HBF 接棒
Kim 明确表示,现有 HBM 技术——通过垂直堆叠 DRAM 实现超高速传输,目前主导 AI 加速器内存市场——在智能体 AI 时代将难以为继。
他提出的下一代解决方案是HBF(High Bandwidth Flash,高带宽闪存):以堆叠 NAND 替代 DRAM,构建一个 " 巨型书架式 " 长期记忆体,容量远超现有上限。
类比来看,HBM 更像是桌面上的便签纸——速度快但容量有限;HBF 则像是一整面书墙,能存放的信息量级完全不同。
在架构层面,SK 海力士已在 IEEE 发表的论文中提出 "H3" 架构——据《韩国经济》2 月报道,该架构将 HBM 与 HBF 并排部署于 GPU 旁侧,而非现有设计中仅有 HBM 紧邻处理器。这意味着 GPU 的角色将从 " 主角 " 退化为 " 配角 ",计算单元被嵌入以内存为主体的系统之中。
时间表已逐渐清晰。
据 Kim 的预测,HBF 工程样品预计将于 2027 年前后出现,谷歌、英伟达或 AMD 最早可能在 2028 年采用该技术。
这一节奏与 HBM 当年从实验室走向大规模商用的路径高度相似,也意味着产业窗口期已经开启。
SK 海力士与三星,再度正面交锋
Kim 同时指出,HBF 领域的竞争格局将复刻 HBM 时代的剧本—— SK 海力士与三星电子再度成为主角。
目前,SK 海力士已于今年 2 月联合闪迪成立 HBF 标准化联盟,意在抢占生态系统主导权。三星则一方面持续推进 HBM4E 等下一代 HBM 产品,另一方面同步投入与 HBF 概念相符的 NAND 架构研发,据 Aju News 报道。
两家巨头的布局路径不同,但目标指向同一个赛道。谁能率先完成从标准制定到量产交付的闭环,将在很大程度上决定下一轮 AI 内存市场的格局。


登录后才可以发布评论哦
打开小程序可以发布评论哦