" 高通骁龙 8 至尊版主控搭配 LPDDR5X Ultra 内存 +UFS4.1 闪存,构成了性能铁三角 ",这无疑是自从 2025 年秋季开始,主打性能表现的 Android 旗舰在宣传时的常用话术。在市场竞争白热化的手机圈,性能成为了各大厂商比拼内功的关键,同时也是新技术应用最频繁的场景。
日前有消息源透露,华为或将抢先苹果落地 HBM 内存。但在此之前,业界一直流传着苹果方面将在 20 周年纪念版 iPhone 上,将 HBM 内存应用到移动设备中,从而带来新一轮的性能革命。
那么 HBM 内存究竟是什么,与现在主流的 LPDDR5 有何不同呢?事实上,HBM(High Bandwidth Memory,高带宽内存)是一种基于 3D 堆栈技术,通过 TSV(硅通孔)和微凸块(ubump)工艺实现的多层 DRAM 芯片垂直堆叠。而 DDR(Double Data Rate)则采用的是并行总线架构,常见于 DIMM(双列直插式内存模块)形式。
其实 HBM 和 DDR 的核心原理一模一样,两者都是易失性存储器,每一个数据均通过一个晶体管和一个电容组成的 Cell 来存放,其中的电容器用于存储电荷来代表二进制数据 "1" 或者 "0" ,晶体管则作为开关与周边电路联通实现读、写、刷新操作。
两者的区别在于架构设计,如果将传统的 DDR 视作 " 平房 ",那么 HBM 就是 " 楼房 "。通过 3D 堆栈技术,HBM 可以缩短数据传输的路径、大幅提高数据吞吐量,再依靠中间介质层与计算芯片紧凑连接,从而节省芯片面积,最终带来更大的带宽。
HBM 的带宽究竟有多高呢?以最新的 HBM3E 为例,其传输速率达到了 9.6GB/s,可提供 1.2TB/s 带宽。作为对比,LPDDR5X 的带宽为 8533Mbps(1066.6MB/s),也就是说 HBM3E 的带宽是 LPDDR5X 的 1180 倍。
那么问题也就来了,HBM 和 DDR 在原理相同的情况下,前者为何会拥有更大的带宽?其实秘诀就在于 HBM3E 使用了支持 1024 位的数据总线宽度,而 LPDDR5X 则是 64 位总线。但 1024 根数据线显然无法用传统的 PCB 布线实现,所以 HBM 就需要用额外的硅中介层,通过 3D 堆栈技术与处理器(CPU、GPU)连接。
但有得必有失,使用 3D 堆栈和硅中介层带来的结果就是成本飙升。无论是台积电的 CoWoS、还是英特尔的 EMIB,硅中介层都极为昂贵,因此也限制了 HBM 被广泛采用。即便是在没有考虑封装测试的情况下,HBM 成本就达到了 GDDR 的三倍左右。
既然如此,华为和苹果为何会考虑将昂贵的 HBM 带到智能手机上呢。别的不谈,当年在巴宝莉前 CEO 安吉拉 · 阿伦茨的领导下,苹果就曾尝试过奢侈品化,结果超高的定价直接导致 iPhone X、iPhone XS 的溃败。难道说是苹果转性了,HBM 内存带来的溢价不会转嫁给消费者?
事实上,HBM 大规模应用在智能手机领域是必然,只是溢价能力更强的苹果和华为有资格尝鲜而已。其实早在 2013 年,SK 海力士就已经量产 HBM 芯片,可直到最近两年,市场才表现出了对 HBM 的强劲需求,并且这一切也是靠 AI 大模型的催化。
当下 AI 模型的训练和推理对于 AI 芯片存储架构设计的需求,是既要高带宽、又要大容量。其中大容量很好理解,因为足够大的内存才能将参数规模惊人的模型给放进去,而高带宽则可以让 AI 模型更快地从内存中访问数据、以缩短计算时间。财大气粗的 AI 厂商为了在市场竞争中取得领先,自然不吝于花大价钱购买 HBM 来获取优势。
同理,手机厂商如果坚信 AI 手机是未来,那么将 HBM 用到手机上就是必然。因为更安全、更能保护用户隐私性的端侧大模型才是消费者希望看到的,所以这就注定了当下的端云混合模型只能是过度,AI 手机的未来一定会是在更大规模的端侧模型上。而使用 HBM 则可以让手机容纳更大规模的端侧模型,进而提升竞争力。
不仅如此,HBM 用到手机上还有另外一个优势,那就是 3D 堆叠可以节省芯片面积,为机身内部设计释放更多空间。所以除非 AI 手机不被消费者接受,否则 HBM 几乎必定会取代现有的 LPDDR、成为未来智能手机的标配。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦