新智元 1小时前
100根内存条换一套房,AI疯狂吞噬全球内存,普通人电脑快买不起了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

当巨头疯狂扫货、分析师开始囤 iPhone17,你的钱包、电脑和 AGI 的未来,正在被同一堵看不见的墙悄悄卡住。

100 根高容量服务器内存,总价已飙升至 400 万元!

一盒芯片相当于一套一线城市近郊的房产!

这疯狂一幕背后,是整个科技行业正在面临的一场史诗级危机。

2025 年下半年以来,狂奔的 AI 行业并未如人们预期的那样因算力爆发而起飞,反而一头撞上了一堵看不见的墙——「内存墙」。

正如上面这位网友所言,2026 年,可能不再是 AI 的「爆发之年」,而是「内存受限」之年:

2026 年卡住 AI 脖子的,不再是我们熟知的算力或电力,而是内存容量与带宽。

这一判断并非危言耸听。

花旗银行的最新研报发出预警:2026 年 DRAM(动态随机存取存储器)平均售价同比或将上涨 88%!

TechRadar 近日的报道也佐证了这一趋势:受 AI 数据中心无底洞般的需求驱动,DRAM 价格预计在 2026 年 3 月将接近翻倍。

为什么内存这么重要?

DRAM 好比是 CPU/GPU 临时操作台,是临时「放数据、随取随用」的地方,模型越大,越需要更大容量、更高带宽的 DRAM。

如今,AI 正在疯狂吸干全球的内存产能。

数据显示,单台 AI 服务器的内存需求显著高于普通服务器,叠加 HBM/ 高容量 DDR5 的产能倾斜,将原本分配给 PC、手机的产能大量「吸走」,直接导致消费级市场的供给枯竭。

当 OpenAI、谷歌等巨头为了争夺通往 AGI 的门票,以「价格不设上限」的方式疯狂扫货,甚至提前锁死 2026 年产能时,代价最终转嫁到了普通消费者身上。

你会发现:

你想买的那台新电脑,价格不仅没降,反而越来越坚挺;

手机处理器虽然年年换代,但体验提升却越来越不明显;

爱折腾硬件的小伙伴突然发现,那两根不起眼的内存条,竟然快要买不起了 ……

「内存受限」四个字,不仅是悬在科技巨头头顶的达摩克利斯之剑,还在悄悄掏空普通消费者的钱包!

分析师囤货背后,一场全球性的「内存危机」

2025 年下半年以来,存储芯片价格如同坐上火箭,内存、闪存价格全面翻倍。

据 TrendForce 数据显示,2025 年 9 月以来,DDR5 颗粒现货价累计上涨约 307%,部分媒体走访称,顶配高容量服务器内存单条价格更是突破 4 万元。

这是什么概念?

手里捧着一盒 100 根的内存条(总价 400 万),你就相当于捧着一套北上广深近郊的房产!

与此对应的,是花旗银行 Citi 的研究部门已经大幅向上修正了他们预测:

2026 年 DRAM 的价格将暴涨 88%,而此前的预期仅为上涨 53%。

如此恐怖的涨幅背后,是一场由 AI 巨头主导的、对全球存储资源的疯狂「抢夺」。

TechRadar 报道称,服务器模组正在像黑洞一样,吞掉绝大部分晶圆产出。

原本留给 PC、留给笔记本电脑的产能,被快速挤压得所剩无几。

TrendForce 资深研究副总裁 Avril Wu 直接用钱包投票。

她告诉所有人:我一直跟大家说,如果你想买设备,现在就买。

甚至为了避险,她自己已经先买了一台 iPhone17。

提前囤货一台 iPhone17,这看起来有点微不足道,背后却是全球「内存告急」的信号。

全球存储巨头 Micron 传出的消息也不容乐观。

即便新的晶圆厂陆续投产,其 CEO Sanjay Mehrotra 也发出警告:目前只能满足客户需求的二分之一到三分之二。

这意味着,有接近一半的需求,拿着钱也买不到货。

PC 端的供应商也开始挑客户,他们正在进行选择性配货,优先保障那些大型整机厂 OEM,而压缩给第三方模组厂商的供货量。

这也就是为什么 TechRadar 预测,PC DRAM 的合约价在 2026 年初可能会明显上调。

这不是简单的通胀,这是我们在为 AI 的发展,被迫缴纳的一笔昂贵的「资源税」。

致命剪刀差,被 AI「吃掉」的内存

AI 军备竞赛,让我们正在目睹科技史上最夸张的「剪刀差」。

https://arxiv.org/pdf/2403.14123

根据加州大学伯克利分校一项有关「人工智能与内存墙」的论文研究提到:

由于前所未有的无监督训练数据规模,再加上 Scaling laws(神经网络缩放定律),使得用于训练和在线服务大语言模型(LLM)的模型规模和算力需求出现了爆炸式增长。

研究人员指出,训练大模型所需的计算量最近以每两年 750 倍的速度增长,远超 DRAM 和互连带宽的增长速度——后者每两年仅分别增长 1.6 倍和 1.4 倍

这种差距使得内存而非计算能力,成为 AI 应用(尤其是在推理场景中)的主要瓶颈。

过去 20 年里,人类芯片的算力峰值提升了整整 60000 倍。

但 DRAM 的带宽仅仅提升了约 100 倍,互连带宽增长约 30 倍。

这种极度的不匹配,将整个 AI 行业推入了一个「受限于内存」的死胡同。

科技咨询公司 Greyhound Research 的 CEO Sanchit Vir Gogia 打了个比方:AI 的工作负载,本质上就是围绕内存来构建的。

这就好比你想用一根喝酸奶的细吸管,去吸干整个太平洋的水。

就算嘴巴(算力)再用力,水流(数据)也只有那么快,这种不匹配直接导致了一个极其昂贵的后果:空转。

那些数万美元一块的 H100 或者 B200 GPU 的算力巨兽,大部分时间只能「发呆」和「吃灰」。

因为数据传输跟不上,处理器经常处于闲置状态等待数据。

这就是典型的「内存墙」,而对于那些大模型公司来说,这无异于白白烧钱。

训练一个大模型,往往需要 3 到 4 倍于参数量的内存,数据搬运的速度远慢于计算速度,这直接主导了现代 LLM 的运行时间延迟。

所以,我们引以为傲的 AI,其实一直戴着「内存受限」的镣铐在跳舞

撞上「内存墙」,除了贵,还带来了什么瓶颈?

「内存墙」带给个体的感知,可能仅仅是显卡和电脑变贵,顶多是捂紧钱包,或者加紧囤货就好了。

但它带来的连锁反应,却成了困扰 AI 发展的瓶颈。

首先是能耗

AI 数据中心巨额的电费,其实也不是都花在了计算上。

在冯 · 诺依曼架构下,计算和存储是分离的,数据需要在内存和处理器之间来回奔波。

有研究表明,从内存读取数据消耗的能量,在某些负载 / 工艺假设下,数据搬运的能耗可能远高于计算本身(甚至到百倍量级)。

也就是说,数据中心大部分的电,不是用来思考,而是用来把数据「搬来搬去」。

这不仅不环保,而且也造成了极度的浪费。

其次,是每个用户都能感知的延迟与体验下降

为什么有时候 ChatGPT 处理长文本时会变慢、变卡?它不是算力不够,它是被卡在了内存带宽上。

AI 模型要把海量的上下文塞进有限的显存里,每一次推理势必受限。

如果「内存墙」无法突破,更大参数量的 AI 模型,将因为无法在合理的时间和成本内完成训练。

这意味着,即使我们可能拥有设计出超级智能的能力,但我们没有足够大的「容器」来承载它。

这势必也会减缓 AI 创新的速度。

如何破壁「内存墙」

通往 AGI,势必要打破「内存墙」。

为了破壁「内存墙」,科技界也掀起了一场硬件和架构上的革命。

第一招,是硬件上的「暴力美学」,即 HBM(High Bandwidth Memory,高带宽内存)。

如果说传统内存是在平地上盖平房,那么 HBM 就是在芯片上盖「摩天大楼」。

它利用先进的硅通孔(TSV)技术,将 DRAM 芯片像叠汉堡一样垂直堆叠,盖成一栋几十层高的塔楼,并修通了成千上万部「垂直电梯」直达处理器。

这是目前最直接、但也最昂贵的解决方案。

也正是因为要生产这些工艺极难的 HBM「摩天大楼」,服务器模组像黑洞一样吞噬了绝大部分晶圆产出,导致留给 PC 和手机的产能捉襟见肘。

以英伟达的 H100、H200 乃至 Blackwell 平台为例,它们的设计哲学就是要把「堆 HBM」做到极致。

第二招,是架构上的全新革命,比如 CXL 和 PIM。

CXL(Compute Express Link,计算高速互连协议),它的思路很像共享单车。

以前,CPU 和 GPU 的内存是各管各的,现在有了 CXL,我们可以建立一个巨大的「内存池」。

CPU 用不完的内存,GPU 可以拿去用,打破了单机的容量限制,让资源利用率最大化。

还有更彻底的 PIM(Processing-in-Memory,存内计算)。

既然数据搬运那么费电,那么慢,我们干脆就不搬了,直接让内存自己具备计算能力,数据在哪里,就在哪里计算

这彻底颠覆了计算机几十年来的工作方式,从根本上消灭了数据搬运这个能源、算力消耗大户。

再回到「内存墙」。

TrendForce 的预测显示,2026 年 DRAM 的价格走势里,看不到任何「涨完回调」的迹象。

相反,PC 和服务器 DRAM 似乎会在更高的价格区间稳定下来。

这意味着,无论是消费者还是企业,至少在中期内廉价、充裕内存和存储时代已经终结

对于 AI 巨头的 AGI 竞赛来说,谁能率先推倒「内存墙」,谁就有望率先拿到通往 AGI 的门票。

对于普通人来说,在未来很长一段时间里,购买电子产品都可能将承受更高的溢价。

所以我们还是像文中那位囤货的分析师一样:想买什么,趁现在吧。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 花旗银行 谷歌 科技巨头 芯片
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论