手机中国 21小时前
AI芯片再进化:HBM基底芯片将直接集成GPU运算单元
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

【CNMO 科技消息】CNMO 观察到,全球科技巨头正推动在下一代高带宽内存(HBM)中直接集成图形处理器(GPU)核心,以突破 AI 计算性能与能效的瓶颈。这一技术动向也意味着存储器与系统半导体之间的界限正在被打破。

HBM

据业界多名知情人士透露,Meta 与英伟达正探讨在 HBM 的基底芯片(Base Die)中嵌入 GPU 核心的方案,并已与 SK 海力士、三星电子就合作进行接触。该架构属于 " 定制化 HBM" 讨论的一部分,其核心是在 HBM 最下层的基底芯片中直接集成 GPU 运算单元。

HBM 是通过多层 DRAM 堆叠而成的高性能内存,专为处理 AI 所需的大规模数据而设计。目前基底芯片负责 HBM 与外部之间的通信;而在预计明年量产的 HBM4 中,将进一步在基底芯片加入 " 控制器 ",以提升内存控制能力与能效。此次提出的 GPU 核心集成,被视为比 HBM4 控制器更前沿的技术跃升。

GPU 核心是能够独立执行计算的基本单元,核心数量越多,计算性能越强。把核心放入 HBM,能够将原本集中于 GPU 的运算功能部分分散至内存侧,从而减少数据搬运延迟、降低主 GPU 的负担。业内专家指出,在 AI 运算中,速度与能效同等关键;缩短内存与运算单元之间的物理距离,可同步降低数据传输延迟与功耗。

然而,技术挑战也不容忽视。由于 HBM 基底芯片采用硅通孔(TSV)工艺,可供 GPU 核心使用的空间极为有限。此外,GPU 核心的高功耗与发热量对供电与散热设计提出了严峻考验,散热控制可能成为瓶颈。

KAIST 电气电子工程系教授金正浩强调," 为应对 AI 高端化,存储器与系统半导体之间的技术融合速度将越来越快 ",并呼吁企业超越内存领域,向逻辑芯片生态扩展,以抢占下一代 HBM 市场先机。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

gpu 芯片 ai 半导体 海力士
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论