【CNMO 科技消息】CNMO 观察到,全球科技巨头正推动在下一代高带宽内存(HBM)中直接集成图形处理器(GPU)核心,以突破 AI 计算性能与能效的瓶颈。这一技术动向也意味着存储器与系统半导体之间的界限正在被打破。

HBM
据业界多名知情人士透露,Meta 与英伟达正探讨在 HBM 的基底芯片(Base Die)中嵌入 GPU 核心的方案,并已与 SK 海力士、三星电子就合作进行接触。该架构属于 " 定制化 HBM" 讨论的一部分,其核心是在 HBM 最下层的基底芯片中直接集成 GPU 运算单元。
HBM 是通过多层 DRAM 堆叠而成的高性能内存,专为处理 AI 所需的大规模数据而设计。目前基底芯片负责 HBM 与外部之间的通信;而在预计明年量产的 HBM4 中,将进一步在基底芯片加入 " 控制器 ",以提升内存控制能力与能效。此次提出的 GPU 核心集成,被视为比 HBM4 控制器更前沿的技术跃升。

GPU 核心是能够独立执行计算的基本单元,核心数量越多,计算性能越强。把核心放入 HBM,能够将原本集中于 GPU 的运算功能部分分散至内存侧,从而减少数据搬运延迟、降低主 GPU 的负担。业内专家指出,在 AI 运算中,速度与能效同等关键;缩短内存与运算单元之间的物理距离,可同步降低数据传输延迟与功耗。
然而,技术挑战也不容忽视。由于 HBM 基底芯片采用硅通孔(TSV)工艺,可供 GPU 核心使用的空间极为有限。此外,GPU 核心的高功耗与发热量对供电与散热设计提出了严峻考验,散热控制可能成为瓶颈。
KAIST 电气电子工程系教授金正浩强调," 为应对 AI 高端化,存储器与系统半导体之间的技术融合速度将越来越快 ",并呼吁企业超越内存领域,向逻辑芯片生态扩展,以抢占下一代 HBM 市场先机。


登录后才可以发布评论哦
打开小程序可以发布评论哦