快科技 8 月 11 日消息,AI 这两年来成为市场热点,并且也成为大国竞争的关键技术之一,NVIDIA 的 GPU 虽然更强大,但在存储芯片上也要依赖韩国厂商,因为 HBM 内存逐渐卡住 AI 脖子。
HBM(High Bandwidth Memory)是一种高带宽内存标准,主要用于满足日益增长的计算需求。
相比传统内存,HBM 可以提供更高的数据传输速率和更低的延迟。
在这个领域,率先量产的是 SK 海力士,美国也有美光公司开始量产,内存一哥三星反而是最慢的。
HBM 最新标准已经到了 HBM4,但市场上当前的主力还是 HBM3E,堆栈层数正在从 8 层提升到 12 层,单颗容量轻松达到 36GB,而 SK 海力士凭借技术优势可以做到 16 层堆栈,容量 48GB,今年就能供货。
得益于市场优势,SK 海力士 HBM 事业部高管崔俊龙 Choi Joon-yong 日前在采访中表示,来自终端用户对 AI 的需求非常庞大,而且非常稳固。
该公司也预测到 2030 年之前,HBM 市场将以每年 30% 的增长率发展,市场规模将达到数百亿美元。
HBM 内存也逐渐成为韩国芯片出口的王牌,去年对美国的芯片总出口为 107 亿美元,其中 HBM 就占了存储芯片的 18%。
NVIDIA、AMD 及 Intel 三家主要的 AI 芯片巨头当前及下一代的 AI 芯片也会进一步提升 HBM 显存的容量和速度,其中 AMD 明年的主力产品 MI400 将使用高达 432GB 的 HBM4,带宽 19.6TB/s,对比 MI350 系列的 288GB HEM3E、8TB/s 分别增加 50%、145%,比竞争对手的产品也高出 50%。
值得一提的是,HBM 也成为国内 AI 芯片发展的关键限制因素之一,国内也有公司在自研 HBM 芯片,但技术水平落后 SK 海力士一两代,HBM3e、HBM4 量产还要等几年时间。
不过华为即将在未来两天公布一项新技术,这项成果或能降低中国 AI 推理对 HBM(高带宽内存)技术的依赖,提升国内 AI 大模型推理性能,完善中国 AI 推理生态的关键部分。
登录后才可以发布评论哦
打开小程序可以发布评论哦