2026 年将至,ChatGPT 发布三周年,但关于"AI 瓶颈期 "的焦虑正达到顶峰。
当全行业都在讨论如何通过量化、蒸馏来 " 省钱 " 时,新加坡国立大学校长青年教授、潞晨科技创始人尤洋却提出了一个更为本质的拷问:
如果给你 300 亿美元预算,今天我们真的能训出比 GPT-4 强出几个维度的模型吗?
在《智能增长的瓶颈》一文中,尤洋教授一针见血地指出:
当前智能增长的瓶颈,本质上是我们现有的技术范式,已经快要 " 消化 " 不动持续增长的算力了。
他提出了几个颠覆常规认知的硬核观点:
智能的本质是能源转化:过去 10 年,AI 的本质是将电力通过计算转化为可复用的智能,而转化效率正面临大考。
Transformer 的秘密:它之所以胜出,并非因为更像人脑,而是因为它是一台 " 伪装成神经网络的并行计算机 ",完美契合了英伟达 GPU 的堆料逻辑。
效率不等于智能:Mamba 等新架构提升了吞吐量,但在 " 算力转智能 " 的终极上限上,它们真的比 Transformer 更强吗?
未来的出路:抛弃 Adam 优化器?回归高精度计算(FP32/64)?
从电影制作到地震时间预测,我们离真正的 AGI 还有多远?……

这篇深度长文,或许能带你穿透 " 降本增效 " 的迷雾,直达算力与智能最底层的逻辑。
一起来看。
智能的核心不是解释,而是预测
什么是智能?
尤洋没有照搬任何形式化或哲学化的 " 智能定义 "。
相反,他采用了一种非常工程化、面向能力评估的处理方式,通过一组可验证、可实践的判断标准来刻画智能的边界:
在关键人生决策上,是否愿意完全听从 AI;
在高风险、高不确定性领域,是否敢让 AI 替代专家;
在创作层面,是否已经无法分辨作品是否由 AI 生成;
这些例子背后,指向的是同一个核心能力:即对未来状态进行预测,并为预测结果承担实际后果的能力。

这一锋利的判断,不仅解释了为什么 Next-Token Prediction 能在过去几年成为事实上的 " 智能发动机 ",也解释了为何许多 " 在封闭评测中表现出色 " 的系统,一旦进入真实世界就迅速暴露短板——
它们往往擅长组织与解释已有信息,却难以在不确定环境中对未来做出稳定、可执行的判断。
当然,需要强调的是,将智能高度凝聚为 " 预测 ",更像是在给智能划定一个工程上可对齐算力投入的核心能力维度,而非穷尽智能的全部内涵。
这是一个足够清晰也足够有解释力的硬核视角。而规划、因果建模以及长期一致性等能力,是否能够完全被还原为预测问题,仍然是一个开放议题。
但当我们把智能简化为预测能力时,下一步的问题自然落到:算力是如何转化为这种能力的?
预训练、SFT、RL 之争,本质上是 " 算力分配 " 问题
过去几年,行业对训练范式的讨论,常常被 " 方法论优越感 " 主导;但如果把目标限定为单位算力能换来多少智能,那么范式本身就不再神秘,而变成了一种算力使用策略。
不同于主流叙事,尤洋在文章中直接把预训练、微调、强化学习三者拉到统一层面,即三者本质上都是在计算梯度,更新参数。

文章指出,当前模型的主要智能来源,依然是预训练阶段——不是因为它更 " 聪明 ",而是因为它消耗了最多的能源与计算。
从智能增长角度看,这三者参数更新发生的频率与更新所消耗的算力规模确有不同,但是通过视角的转换,智能增长的讨论就从方法论之争,转向了一个更朴素,也更残酷的问题——
在算力持续投入的前提下,我们是否还能稳定地换取能力增长?
Transformer 的胜出,不只是算法胜利
为了回答这个问题,这篇文章回溯了过去十年大模型快速进化的原因。尤洋指出,这一轮智能跃迁的成立,依赖于三件事情同时发生:
一是 GPU 体系在硬件层面持续提供指数级增长的并行算力;
二是 Transformer 架构在计算结构上天然支持大规模并行,能够充分 " 吃下 " 这些算力;
三是 Next-Token Prediction 这一训练目标为模型提供了近乎无限、且高度统一的学习信号。
因此,Transformer 的成功,并不仅仅是算法层面的胜利,更源于模型架构与硬件体系高度匹配的系统性结果。
在这三者共同作用下,算力增长、模型规模扩大与能力提升之间形成了一条相对稳定的正反馈链路。
需要注意的是,这一范式的有效性,也在一定程度上受益于语言任务本身的结构特性:语言高度符号化、序列化,且评测体系与训练目标高度一致。
这使得算力增长、模型规模扩大与能力提升之间,在这一阶段形成了一条相对稳定的正反馈链路。
也正是在这一历史条件下,从 GPT-1、GPT-2 到 GPT-3,再到 ChatGPT,智能水平得以沿着同一范式持续抬升。
这也自然引出了后文的核心问题:
当算力继续增长时,我们是否还拥有同样可扩展的范式?
真正的瓶颈,并不是算力停了,而是算力 " 吃不动 " 了
尤洋在文中提出了一个非常具体、也非常可操作的标准来判断智能的瓶颈:
当一次训练的 FLOPS 从 10^n 变成 10^{n+3} 时,我们是否还能稳定地获得显著更强的模型?
如果答案开始变得不确定,那么问题就不在于 " 算力是否继续增长 ",而在于:
现有范式对新增算力的吸收效率是否下降;
计算规模的扩大,是否被通信、同步和系统开销所抵消。
这也是文章里反复强调 FLOPS 的原因:
Token 数、参数量、推理速度,往往会混合效率与商业因素;而FLOPS 才是最底层、也最难被包装或美化的算力尺度。
在这个意义上,所谓 " 瓶颈 ",并不是红利消失,而是算力增长与智能增长之间的映射关系开始松动。
更值得一提的是,尤洋在文章中刻意把讨论从 " 效率优化 " 里拎出来,换了一个更接近一线大厂决策的场景:
假设今天 Google 拍给你一张 "300 亿美元预算 " 的支票,给你半年 DDL ——在这种极限训练目标下,你还会优先选择 Mamba 这类 " 吞吐量更高 " 的架构吗?
未必。因为吞吐量解决的是 " 同等智能更便宜 ",不自动等价于 " 同等成本更聪明 "。
真正的难点变成:我们到底有没有一种扩展性更强的架构或 Loss 函数,能把新增算力更稳定地 " 吃进去 ",并把它转换成可兑现的能力增量?
那么如何能在单位时间内吃下更多算力,并真正将它转化为智能呢?
未来未定,问题的答案可能在多个探索区间内
在正式回答算力转化智能的问题之前,尤洋还对硬件与基础设施层面进行了深入的探讨。
他根据自身多年的从业经验得出,计算开销 / 通信开销的比值,必须维持或提升,这样才能在继续堆叠 GPU 的情况下,线性地换来更多智能。
因此,未来 AI 基础设施的核心目标,应该关注并行计算体系在软硬件层面的整体扩展性,而不仅仅是单点芯片性能。
在这一基础上,尤洋最后提出了多个探索方向,比如更高精度、高阶优化器,更可扩展的架构或者 Loss 函数,更多 epoch 与更深度的超参数探索。
这些探索方向,都在试图回答同一个命题——如何让模型在 " 吃掉 " 万亿级投入的同时,吐出等比例增强的智能?
对于智能的进一步增长而言,真正重要的,是在极端算力条件下持续变强的能力——这也意味着,预训练所能承载的智能增长空间,可能还远未走到尽头。
回到最初讨论的问题,算力到底还能不能继续转化为智能?
尤洋并未给出断言,但逻辑已经清晰:
只要我们还能找到更高效组织计算的方式,智能的上限就远未到来。
原文传送门(或点击 " 阅读原文 "):
https://zhuanlan.zhihu.com/p/1989100535295538013
* 本文系量子位获授权刊载,观点仅为原作者所有。
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见

