
【新智元导读】AGI 炒作还是现实?AI 新闻老将 Matt Wolfe 直击美国 AI 核心:从 Demis Hassabis 的理性谨慎,到扎克伯格的巨资投入,探索递归自我改进的潜在爆炸风险。
OpenAI、谷歌、微软、Meta、Anthropic 等耳熟能详的科技大厂,高喊 AGI 将至。
人类可能正在站在命运的分水岭:AI 或许即将自我进化,带来智能爆炸与生命延长,也可能制造出人类无法理解的「黑箱语言」。
内容创业者 Matt Wolfe 长期以来一直关注人工智能,并曾有幸对多位重量级人物进行专访,包括 DeepMind 的创始人 + 诺奖得主 Demis Hassabis、微软 CEO 纳德拉以及谷歌 CEO 劈柴等。
这次,Matt Wolfe 揭示了冰山之下的张力:巨头狂奔,能源告急,机器人崛起。

在谷歌 I/O 会议上,Matt 听到了哪些风声?未来会是繁荣的乌托邦,还是《瓦力》般的沉迷社会?
各自狂奔,无暇他顾
Matt 有丰富的一手行业观察。
比如,他会参加谷歌 I/O 之类的大会。而他和实际负责技术研发的工程师交流,而不是那些只负责宣传的高层。工程师能直接告诉你哪些技术真的有效,哪些没那么靠谱。

那他心中的 AI 的「冰山之下」是什么样子?
在大众眼中,这些科技巨头看起来就像是只关心利润、想尽办法赚钱的怪兽。他们会偷用户的数据、用来训练模型、根本不在乎用户。大公司在整个企业结构上,确实很重视股东利润,这也是事实。

但当你真正去和公司里的员工交流时,Matt 从来没有感觉他们是想要操纵大众、偷数据或夺走大家的工作。他们只是对正在开发的新技术感到无比兴奋,希望能为人类带来全新能力。
比如,几年前在谷歌 I/O 的记者区,Matt 和一位谷歌员工聊起来。
她很紧张又很激动,因为他们即将上台介绍她过去两年开发的技术。她并不需要上台演讲,但她特别在意观众会如何接受她参与的项目。她说:「希望大家不会讨厌这个新技术,希望大家觉得它真的很酷。」
她完全没有想过「这个技术会抢走谁的饭碗」,她只是希望大家认可她花了两年时间努力的成果。
这让 Matt 觉得,这份「人性」才是最重要的东西。
AI 巨头如何权衡速度与安全?
Matt 觉得这其实因公司而异。
比如,谷歌更倾向于谨慎,会确保技术真的准备好了才推出。
他和微软也有不少互动。有时,他会觉得微软的确更激进一些。
OpenAI 则有点介于谷歌和微软之间。他们也许没有微软那么激进,但也不像谷歌那么保守。
这种差异其实挺有意思:有的公司把安全放在首位,有的公司则急于抢占市场。
最近,扎克伯格也明显转向了,他在「个人超级智能」项目上投入巨资,疯狂招揽人才。

与此同时,马斯克也在拼命追赶,疯狂加码算力投资。
那么问题来了:这场竞赛的关键是资本和人才吗?
在 Matt 看来,更大的瓶颈其实是能源。
在芯片和 AI 训练相关的技术上,美国优势明显,而中国则在能源基础设施方面更强,但芯片受限。未来在美国,能源反而可能成为制约 AI 发展的最大障碍。
当然,大量投入资金与人才确实能让企业快速追赶。
比如两年前,大家都觉得谷歌落后了,根本不能和 OpenAI 和微软比。但现在谷歌几乎已重回前列,甚至在部分领域名列前茅。
别无选择,只能加速
OpenAI 和谷歌多少还能看到一些「理想主义」的影子,追求某种人类共同的未来。
比如,DeepMind 的 Demis Hassabis 是业内最值得信任的人之一。

他非常理性谨慎,深知 AI 发展中人类的恐惧与担忧。
如果完全由他决定,DeepMind 的节奏会慢得多、更为审慎。
但现实是,谷歌作为大公司,有其他声音推动加快商业化。
但回头想想看,两年前 ChatGPT 吃掉了大量搜索流量,而谷歌每年光靠搜索赚个五六百亿美金。
这对于谷歌来说是生存威胁。那时候,Demis Hassabis 肯定也面临巨大压力,没得选,只能加速。
而 Meta,它的目标未必是「人类乌托邦」。
Meta 的终极目标是全自动生成内容,这或将彻底重塑创作者经济。
炒作还是现实
现在越来越多的 AI 实验室负责人都在说:
我们开始看到 AI「自我改进」(recursive self-improvement)的迹象了。
甚至有很多论文都这样说。比如,Leopold Aschenbrenner 在论文里提到的那种「一飞冲天」的发展路径。

论文链接:https://situational-awareness.ai/wp-content/uploads/2024/06/situationalawareness.pdf
人类快要迎来所谓的「智能爆炸」了吗?
Matt 觉得目前这些说法更多还是理论上的猜测。
这些 AI 巨头很有动力让大众觉得 AGI 马上就要来了,这样大家就会一直关注他们、支持他们。但实际上可能并非如此。
但一旦真正达到 AGI 的临界点,那发展就真的会像爆炸一样迅猛。
超级人工智能 ASI 距离 AGI 不远。一旦模型具备了解决自身问题的能力,发展就会加速。
所以 Matt 觉得,一旦 AGI 出现,ASI 会很快跟上。那时候的发展曲线就不再是线性的,而是一条「冰球棒」曲线——急剧上升。

在某些领域,AI 表现超人般强大,但在另一些简单任务上却依然出错。比如它能解决复杂的数学与能源问题,却可能数不清「strawberry」里有几个字母 R。
这种 AI 的锯齿形性能让一些人掉以轻心,觉得「它连数字母都不会,怎么可能聪明到那种程度?」
但如果他在科研和工程上比任何人都强,这就足以改变世界。
真正应该担忧是:AI 或许会在 AI 研究本身上远超人类,能够自主提出新的模型架构、新的训练方法,甚至自动化完成实验循环。这一旦出现,人类可能根本无法理解它的推理逻辑。
实际上,类似的雏形已经出现了。比如,谷歌的 DeepMind 的AlphaEvolve的项目,本质上就是用 AI 来设计新的算法。

AlphaEvolve 如何助力谷歌构建更高效的数字生态系统
换句话说,递归改进的开端已经在路上。
还有一个具体的担心:AI 可能会创造出人类完全无法理解的新语言。

当它们用这种语言编程、交流甚至创造产品时,人类根本无法 debug。
这听起来像科幻,但其实类似的情况已经在发生。比如,谷歌的搜索算法:今天恐怕没有任何一个人能完全理解它的全貌。经过多年迭代,无数人参与开发,它已经复杂到超越个体的理解力。
如果未来的 AI 系统真的发展出属于自己的「黑箱语言」,那将带来前所未有的不透明性与风险。
而这些科技巨头掌握了叙事权。
马斯克、扎克伯格、奥特曼,他们的一句话往往能影响数百万人的观点。但他们的言论往往带有「隐性动机」。例如:
当扎克伯格宣称「超级智能即将来临」,这既能让投资人掏钱,也有助于 Meta 在 AI 领域招揽人才;
当奥特曼强调「安全风险」,这既是责任感的体现,也可能是为了推动监管,让自己获得先发优势;
马斯克会警告「AI 威胁」,但与此同时,他的 xAI 却在拼命扩张。
媒体作为观察者,必须揭示这种「公开理由」与「真实动机」之间的落差。
下一代能活到 200 岁?
一年前说,Matt 认为他的孩子有 75% 的概率能活到 200 岁。
现在,他还是差不多保持原来的看法。
原因在于:AI 正在快速推动生物医学突破。例如:
AlphaFold 已能预测蛋白质折叠方式;
Isomorphic Labs 在用 AI 提前一年检测脑肿瘤;
还有 AI 能在糖尿病症状出现前多年做出预警。
如果这些技术继续发展,癌症、心脏病等致死疾病极有可能在未来几十年内被攻克。那意味着寿命曲线会被彻底改变。
他觉得这一切的发展都在给人类「延寿」提供可能性。
英国作家兼老年生物学家 Aubrey de Grey 提出了「长寿逃逸速度」理论。

该理论的大意是:随着科技进步,每活一年,你的预期寿命就会增加两年或更多。
等人类真正达到那个转折点后,人类可能就「永生」了。

最近,Aubrey de Grey 公开表示:2030 年或最迟 2035 年,人类可能会「技术突破」,实现长寿逃逸速度。
也就是说,再过 5 年,如果你还活着,就有机会见证这一切。
对现在 10 岁以下的孩子,Matt 认为他们活到 200 岁的可能性可能高达 50% 以上。
现在的这代人可能会成为「最悲催的一代」——眼看下一代人活到了 200 岁,自己却永远停在了 80 岁。
机器人全员上岗
如果未来人类寿命延长,而出生率下降,那么「机器人补充劳动力几乎是必然。
想象一个场景:家务、清洁、做饭、搬运、园艺 ……几乎都由机器人完成。
人类获得大量自由时间,有人可能选择创作艺术、旅行、抚养孩子;也有人可能像电影《瓦力》一样,沉迷娱乐,虚度一生。

AI 和机器人社会可能走向两种截然不同的道路:
一种是繁荣与创造力爆发;
另一种则是全民懒散,沉迷快感。
目前的短视频已经让人们轻易陷入「无意识刷屏」。

现实更可能接近《瓦力》版本,这不得不让人担心。
如果人类真的能活到 200 岁,那么女性的生育窗口也许会被技术大幅延长。人工子宫、基因修复、激素疗法等都可能让「高龄生育」成为常态。
这将彻底改变家庭结构与人口模式。年轻人不再急于结婚生子,因为她们知道自己在 100 岁时仍有可能成为母亲。
一些迹象表明,家用机器人很快会进入前 10% 富裕家庭。
Matt 预测:再过 15 – 20 年,机器人会像今天的汽车一样普遍。
也许那时,孩子们的玩伴里就有「人形机器人」。
 
    

登录后才可以发布评论哦
打开小程序可以发布评论哦