驱动之家 02-09
全球首次!HBM4大规模量产出货:NVIDIA首发 黄仁勋成最大赢家
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 2 月 9 日消息,三星电子将于本月下旬,也就是农历新年假期(今年 2 月 17 日为农历初一)之后,正式向 NVIDIA 批量交付 HBM4 高带宽存储芯片,标志着全球范围内 HBM4 芯片首次实现大规模量产与出货。

业内消息显示,三星电子已顺利通过 NVIDIA HBM4 芯片的全部认证流程,交付时间精准匹配 NVIDIA 新一代人工智能加速器的发布计划,其中就包括 Vera Rubin 平台。

据悉,NVIDIA 计划在 3 月 16 日至 19 日举办的 GTC 2026 大会上,首次公开展示搭载三星 HBM4 芯片的 Vera Rubin 人工智能计算平台。

NVIDIA CEO 黄仁勋在上月的 CES 2026 展会上就曾透露,Vera Rubin 平台已全面进入生产阶段。这也让市场对该平台 2026 年下半年的正式推出充满期待,而三星 HBM4 的及时交付,将为其顺利落地筑牢关键基础。

据悉,此次三星量产的 HBM4 芯片,性能大幅超越行业现行标准。工艺方面,DRAM 单元芯片使用 1c 工艺(即第六代 10nm 级 DRAM 技术),基板芯片则采用 4nm 代工厂工艺,这一组合直接推动 HBM4 芯片性能实现跨越式提升。

具体来看,三星 HBM4 的数据处理速度可达 11.7Gbps,比行业标准机构 JEDEC 设定的 8Gbps 高出约 37%,也较上一代 HBM3E 的 9.6Gbps 提升 22%;单堆栈存储带宽达 3TB/s,是上一代产品的 2.4 倍。

该芯片采用 12 层堆叠技术时可提供 36GB 容量,未来升级至 16 层堆叠后,容量还能进一步拓展至 48GB。

简单来说,HBM(高带宽存储)是专为 AI 加速器、高性能计算设备设计的高端存储芯片,核心作用是破解算力提升带来的内存带宽瓶颈,也是 AI 大模型训练、自动驾驶等前沿领域的核心器件。

当前全球 AI 算力需求持续爆发,HBM 市场需求也随之快速增长。此次 HBM4 芯片大规模量产,不仅能推动全球存储技术迭代升级,更能为下一代 AI 计算平台的性能突破提供有力支撑。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

nvidia ai 三星 芯片 黄仁勋
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论