驱动之家 前天
卡住AI脖子 HBM成韩国出口王牌:芯片三巨头都得用
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 8 月 11 日消息,AI 这两年来成为市场热点,并且也成为大国竞争的关键技术之一,NVIDIA 的 GPU 虽然更强大,但在存储芯片上也要依赖韩国厂商,因为 HBM 内存逐渐卡住 AI 脖子。

HBM(High Bandwidth Memory)是一种高带宽内存标准,主要用于满足日益增长的计算需求。

相比传统内存,HBM 可以提供更高的数据传输速率和更低的延迟。

在这个领域,率先量产的是 SK 海力士,美国也有美光公司开始量产,内存一哥三星反而是最慢的。

HBM 最新标准已经到了 HBM4,但市场上当前的主力还是 HBM3E,堆栈层数正在从 8 层提升到 12 层,单颗容量轻松达到 36GB,而 SK 海力士凭借技术优势可以做到 16 层堆栈,容量 48GB,今年就能供货。

得益于市场优势,SK 海力士 HBM 事业部高管崔俊龙 Choi Joon-yong 日前在采访中表示,来自终端用户对 AI 的需求非常庞大,而且非常稳固。

该公司也预测到 2030 年之前,HBM 市场将以每年 30% 的增长率发展,市场规模将达到数百亿美元。

HBM 内存也逐渐成为韩国芯片出口的王牌,去年对美国的芯片总出口为 107 亿美元,其中 HBM 就占了存储芯片的 18%。

NVIDIA、AMD 及 Intel 三家主要的 AI 芯片巨头当前及下一代的 AI 芯片也会进一步提升 HBM 显存的容量和速度,其中 AMD 明年的主力产品 MI400 将使用高达 432GB 的 HBM4,带宽 19.6TB/s,对比 MI350 系列的 288GB HEM3E、8TB/s 分别增加 50%、145%,比竞争对手的产品也高出 50%。

值得一提的是,HBM 也成为国内 AI 芯片发展的关键限制因素之一,国内也有公司在自研 HBM 芯片,但技术水平落后 SK 海力士一两代,HBM3e、HBM4 量产还要等几年时间。

不过华为即将在未来两天公布一项新技术,这项成果或能降低中国 AI 推理对 HBM(高带宽内存)技术的依赖,提升国内 AI 大模型推理性能,完善中国 AI 推理生态的关键部分。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 芯片 韩国 海力士 ai芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论