记者|郑雨航
编辑|程鹏 兰素英 杜恒峰 校对 | 段炼
从 " 算力时代 " 进入 " 推理时代 ",AI 对内存的需求激增,大幅提振了全球存储公司业绩和股价。
但谷歌的一篇文章,让美国和韩国的内存巨头市值一天蒸发了超 900 亿美元(约合人民币 6200 亿元)。
当地时间 3 月 24 日,谷歌研究院(Google Research)发布了一篇介绍名为 TurboQuant 的向量量化压缩算法的文章,宣称在不损失准确率前提下,将大模型运行时的关键内存占用压缩至 3 比特(原有内存占用的 1/6)。
有市场观点认为,这一算法将减少 AI 对内存的需求。
但也有分析师称,市场的反应说明,很多人对技术 " 一窍不通 "。
谷歌发布新算法
存储巨头市值蒸发逾 6200 亿元
当地时间 3 月 24 日,谷歌发布名为 TurboQuant 的内存压缩算法。谷歌方面表示,TurboQuant 可以在不损失准确性的情况下,将大型语言模型运行时的关键部分——键值缓存(KV Cache)的内存占用减少为原有的 1/6,同时在英伟达 H100GPU 上的特定测试中,性能可提升高达 8 倍。
这一消息迅速触发市场重估逻辑。
富国银行分析师 Andrew Rocha 认为,这项技术可能影响未来对内存容量规格的需求判断。他在报告中写道:"市场很快就会重新评估,AI 究竟还需要多少内存容量。"
当地时间 3 月 25 日,即消息发布后的第一个美股交易日,存储芯片板块在盘中集体跳水。闪迪(SanDisk)股价一度大跌 6.5%,收盘时跌幅收窄至 3.5%,市值损失 36.3 亿美元。同日,美光科技(Micron Technology)下跌 3.4%,市值损失 151.66 亿美元;西部数据(Western Digital)下跌 1.63%,市值损失 16.64 亿美元;希捷科技(Seagate Technology)下跌 2.76%,市值损失 21.4 亿美元。3 月 26 日开盘,存储芯片板块继续集体下跌。

负面情绪迅速扩散至亚洲市场。3 月 26 日,韩国 SK 海力士股价下跌 6.23%,市值损失 44.18 万亿韩元(约合 293.8 亿美元);三星电子也下跌了 4.71%,市值损失 57.83 万亿韩元(约合 384.5 亿美元)。

全球主要内存巨头市值损失合计超 900 亿美元(约合人民币 6200 亿元)。
直击大模型 " 成本痛点 ":
KV 缓存占用减少 83%
TurboQuant 引发震动的核心,在于其精准击中了大模型的关键成本痛点—— KV 缓存(Key-Value Cache)。
在大模型推理过程中,模型需要保存历史上下文信息形成 KV 缓存,以避免重复计算。但随着上下文窗口增长,KV 缓存呈线性膨胀,占用大量 GPU 内存。
例如,一个 700 亿参数模型在 512 用户、2048 Token 输入场景下,仅 KV 缓存就需约 512GB 内存,约为模型本体的 4 倍,已成为商业化部署中的最大成本之一。
传统解决方案是 " 量化 ",即用低精度数据替代高精度浮点数,但往往牺牲准确率,且还需额外存储量化参数,抵消部分压缩收益。
TurboQuant 通过两步优化解决这一问题。
第一步,利用名为 PolarQuant 的方法,将数据从笛卡尔坐标转换为极坐标,类似于 " 向东走 3 米,向北走 4 米 " 的指令,简化为 " 以 37 度角走 5 米 "。通过随机旋转让数据分布可预测,从而无需额外量化参数,直接减少内存开销。
第二步,再利用名为 QJL(量化约翰逊 - 林登施特劳斯变换)的技术,用仅仅 1 个比特来修正第一步压缩后产生的微小误差,确保最终结果的准确性。

谷歌表示,通过该组合方案:
◆ KV 缓存可压缩至 3 比特,内存占用减少为原有的 1/6(降幅约 83%);
◆在 Gemma、Mistral 等模型测试中,性能与未压缩模型一致,无需额外训练或微调;
◆在 NVIDIA H100 测试中,4 比特 TurboQuant 注意力计算速度达到 32 位未量化的 8 倍。

华尔街激辩:
节省缓存等于减少内存总需求吗?
尽管市场短期剧烈反应,但机构观点明显分化。
首先,这项技术并非首次披露,相关论文早在 2025 年 4 月已公开。
其次,有分析指出,谷歌所谓的 "8 倍性能提升 " 是与 32 位未量化模型对比得出,而当前主流已普遍采用 4 位量化,实际提升或低于宣传值。

市场分析机构 Citrini Research 分析师 Jukan 直言,因 TurboQuant 导致内存股暴跌,反映出市场对技术 " 一窍不通 ",就像丰田推出混动发动机却让石油公司暴跌一样。
摩根士丹利则指出,TurboQuant 技术的影响范围是有限的。它仅作用于推理阶段 KV 缓存,不影响模型权重,也不涉及训练环节。因此,这并不意味着整体存储需求下降到原来的 1/6,而是提升单位硬件效率,让相同的硬件能处理更长的上下文或服务更多用户。
此外,摩根士丹利援引 " 杰文斯悖论 "(Jevons Paradox),该理论认为,效率提升往往不会减少资源消耗,反而会因成本下降而刺激需求增长。就像瓦特改良蒸汽机提高了煤炭燃烧效率,结果却是全球煤炭需求量的飙升一样。摩根士丹利认为,通过大幅降低单次查询的服务成本,TurboQuant 能够让原本只能在云端昂贵集群上运行的模型迁移至本地,有效降低 AI 规模化部署的门槛,这可能反而能进一步提振整体需求。
Cloudflare 首席执行官 Matthew Prince 将 TurboQuant 称为谷歌的 "DeepSeek 时刻 "。类似情况曾在 DeepSeek 发布时出现:市场一度担忧算力需求下降,但最终 AI 应用爆发,反而推高硬件需求。一开始下跌的英伟达后来再创历史新高。
从行业规律 " 内存帕金森定律 " 来看,TurboQuant 节省的内存不会闲置,而会被迅速消耗:每一轮硬件升级或软件优化释放出来的存储余量,很快就会被更长的上下文窗口、更大的批处理规模、更复杂的推理需求所吞噬。换言之,节省下来的空间将被用于服务更多并发请求、处理更长的文档,或者运行原本因内存不足而无法加载的大模型,甚至可能推动更强大的 AI 应用在手机等移动设备上成为现实。
免责声明:本文内容与数据仅供参考,不构成投资建议,使用前请核实。据此操作,风险自担。
|每日经济新闻 nbdnews 原创文章|
未经许可禁止转载、摘编、复制及镜像等使用
每日经济新闻


登录后才可以发布评论哦
打开小程序可以发布评论哦