" 不是 AGI 还没到,而是永远到不了。"
CMU(卡内基梅隆大学)教授、艾伦人工智能实验室研究员Tim Dettmers从硬件瓶颈、资源成本、现实应用三重维度论证:
为什么 AGI 从一开始,就是个违背物理规律的幻想工程?
一篇长文,指出GPU 性能峰值停在 2018 年,机架级优化 2027 年耗尽潜力,AI 每提升 1% 的能力,资源消耗要翻好几倍……

AGI 的讨论都在回避 " 计算的物理枷锁 "
智能不是飘在天上的想法,而是得靠电脑、芯片这些实实在在的东西算出来,而这些东西都得遵守物理规律。
计算从不是抽象概念,所有智能都要扎根物理现实。
这也是 Dettmers 反驳 AGI 的核心,很多人在聊到 AGI 时总把它当成抽象的哲学概念,但很多人忽略了硬件实现,而硬件必然受到物理规律限制。
第一个是信息移动成本。
比如有效计算需要平衡全局信息传到局部和局部信息整合,可信息移动的成本会随距离呈平方级上升;芯片缓存也能说明问题,L2、L3 缓存比 L1 大,但却因物理位置更远而速度更慢。

现在芯片里的晶体管越做越小,虽然能降低计算成本,但内存反而越来越贵,现在芯片上几乎所有空间都给了内存,计算单元占比微乎其微。
就算是现在的主流 AI 架构 Transformer,看似是算法层面的突破,本质上也是对硬件信息处理效率的物理优化,且也已经接近物理最优。
第二个是线性进步需要指数级资源。
想让系统更精准、高效,每多一分改进,需要的资源都会呈指数级增长。
物理层面,资源聚集会因空间、时间限制变慢;理论层面,相关联的想法会导致收益递减,就算是创新,也多是对现有思路的微调,难有突破性效果。
物理学就是典型例子,过去个人能取得理论突破,现在却很难。
实验物理更甚,像大型强子对撞机这样耗资数十亿的设备,也没能解开暗能量、暗物质的谜团。
AI 领域同理,想靠堆资源实现 AGI 的通用能,早晚会超出实际承受范围。
GPU 熄火了
而且,支撑 AI 快速发展的燃料 GPU,也进入了熄火阶段。
可能很多人会默认 GPU 会连续迭代,为 AGI 提供算力支撑,但 Dettmers 抛出一组数据:
GPU 的性价比在 2018 年就到了峰值,之后的 16 位精度、张量核心、HBM 内存等改进,都是一次性功能,潜力很快会耗尽。
现在行业寄希望的机架级优化,比如更高效地调度 AI 需要的键值缓存,但这种优化的思路很简单,本质上只有一种最优设计方式。虽然实现起来要花时间做工程,但整体设计没什么新意。
像 OpenAI 这样的公司吹自己的基础设施多厉害,但其实大家的差距很小;唯一能拉开点距离的,就是机架或数据中心级别的小优化,但这些优势也撑不了多久,大概2026-2027 年就会耗尽。
也就是说,GPU 这条算力增长线,已经快走到头了。

有人说把模型规模做大还能提升 AI 性能,Dettmers 并不否认这种规模法则的作用,但问题在于——
过去 GPU 的指数级进步,能抵消规模扩张的资源消耗,花一块钱就有一块钱的效果;现在 GPU 不进步了,想再获线性提升,就得投入指数级成本,花几块钱才有一块钱的效果,这在物理上很快会不可行。
结论:AGI 是幻觉
AGI 的通用,意味着要能处理物理世界的复杂任务。
但物理世界数据的收集成本太高。举个最简单的例子,工厂的机器人要应对零件磨损、天气变化这些突发情况,需要海量数据训练,还得花大价钱做实验。
再看超级智能,它假设 AI 能自己越变越聪明,但现实是,变聪明需要资源……
想让 AI 自己优化,刚开始调调参数或许还能进步,但到达一定水平之后,想要多进步 1%,可嫩好多花 10 倍的钱和算力,那么问题来了:
AI 又不能凭空造资源,怎么做到无限变强呢?
所以,Dettmers 认为 AGI 不会实现,超级智能也是幻想。

不过呢,在他看来,AI 的未来不是超越人类,而是在物理约束内渐进式的改进,靠经济扩散和实际应用创造价值。
比如让算法更省算力、让更多人能用得上开源 AI 模型,把 AI 用到看病、种地、造东西这些实处,一点点帮人提高效率。
Dettmers 指出,美国那边总想着 " 赢者通吃 ",巨头们砸钱搞超级智能,一门心思想做个啥都会的 AGI,却不管这东西到底现不现实,能不能用在实处。
而在这一点上,中国更聚焦落地实用,看的是 AI 能不能提升生产力,还用补贴推动 AI 融入各行业,这样就更贴合现实。
长文链接:https://timdettmers.com/2025/12/10/why-agi-will-not-happen/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦