硅星人 5小时前
这不是 Ilya 想要的 AGI,但他要什么自己也不确定
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

今天的 AGI,从来都不是 Ilya 想要的。

11 月 25 日,被称为 " 深度学习教父级人物 " 的 Ilya Sutskever 接受了播客主 Dwarkesh Patel 的深度访谈。这是他离开 OpenAI、创立 Safe Superintelligence Inc.(SSI)后首次系统性阐述对 AI 未来的思考。

一个半小时,两万多字,这可能是 2025 年 AI 圈最重要的一次对话。

图源:youtube

访谈中,Ilya 这次对 LLM 的批评主要是几点:

第一,Scaling 模式到头了,要回归过去的 " 研究时代 "。

他将整个 LLM 发展分成了几个时期:

2012-2020 年(研究时代): 百花齐放,新想法不断。

2020-2025 年(Scaling 时代): "Scaling" 吸走了房间里所有的空气,只要堆数据和算力堆上去就会变强,导致核心创新乏力。

现在(回归研究时代): 预训练数据正在枯竭,算力边际效应递减。虽然 Scaling 仍有惯性,但真正的飞跃需要新的根本性的研究突破。

而显然,他领导的 SSI 就是要做这个事情,引导新的研究突破。

第二,模型的能力与产生的社会经济影响不成比例。

ilya 认为,今天的跑分结果总是很惊艳,代表了模型的能力已经很强了。他们为了达到这个能力,烧了非常多钱。但在实际经济活动中的影响却不成比例地小。

他认为这是因为很多模型存在(Jaggedness)的问题——即所谓的模型能力时高时低的问题。可能在测评等一些场景表现出色,换一个场景突然又变得很白痴。

而 Jaggedness 背后又是模型泛化能力不足。RL 构建的学习环境,本质是一场巨大的 " 应试教育 "今天人们花在强化学习的投入甚至已经超过了预训练。但当训练的时候,有 " 全量的数据 " 做支持,再加上不断刷题,导致应试能力很强。但到了具体的应用场景里,碰到完全没有遇到的新情况,就容易出问题。

第三,散落在访谈的各个角落里的,是他对今天硅谷巨头主导的 AI 生态氛围一如既往的厌恶。

Ilya 把今天的 AI 巨头们的竞赛称之为"Rat Race"(老鼠竞赛),这种竞争总是会带来痛苦,所以他并不想参与这种事情;

他觉得今天行业里缺乏自己的想法(More Companies than ideas ) ,这导致大家都缺乏核心的新想法,总是做重复的事情,把竞争局限在了商业维度里。他不赞同硅谷的老话,"ideas are cheap,execution is everything"。

他反问,"if iedas are so cheap,how come no one's having any ideas?"

第四,作为 Ilya 的传统保留节目,Ilya 批评了今天的 AGI 安全。

他认为让 AI 去学习 " 人类价值观 " 是不可取的。因为人类价值观本来就是脆弱又矛盾的。如果你学习人类的价值观,可能最终得到的东西,就是些表面相似但本质不同的东西。

以上批评其实都是 " 辩证统一 ":

他共同指向一个浮躁的,还没有实现足够优秀的技术,就提前过度商业化的 AI 生态。

如 ilya 所说," 市场就是一个目光极其短浅的智能体 "

如果站在泡沫论的角度来说,我们也可以说,正是这种畸形的生态,搭配市场经济的短视与贪婪,某种程度让 AI 膨胀到了如此夸张的地步,让 AI 公司更偏执,从而让 ScalingLaw 被无限推升到它本不可能达到的高度——这让现实变得像一部科幻小说一样。

但坦白说,Ilya 对 AGI 的批评没有太新的观点,类似的观点在前两年也说过,Lecun 等 LLM 的批评者也经常说。这个生态浪费了夸张的钱、电力和算力,却迟早会碰到它的天花板。

以至于同样被大厂 " 赶出来 " 的 LLM 异教徒 Lecun 在 X 发了一个搞怪的图片,来自嘲两个人有相似的观点却有完全不同的舆论反馈:

但两者的批评相似,却其实还是有些不同的。

Lecun 是彻底的革命派,要打碎旧的 LLM 制度,建立一个新的 AGI;但 Ilya 则是主张洋务运动式的君主立宪,要在 LLM 生态的基础上,做进一步的技术能力突破。

而这个 " 突破 " 其实就是要做 ASI。

Ilya 要一步登天做 ASI(超级人工智能)

在对话中,我印象最深的一件事情是:

Ilya 好像变得建设性了很多,尤其是他似乎对安全担忧的表达变得很克制,更多是在从产业进步的角度来谈论 AGI 的生态。与此同时,他也重申了自己 SSI 公司的定位和打法:

SSI 是一个纯粹的做研究的公司,而不会去做产品。

这种选择其实也很好理解:如果 scaling 注定没有办法走到终局,如果今天的硅谷商业竞争是带着内卷、偏执和创造力湮灭的话,一步登天其实也是一种选择。

这也是为什么 ilya 觉得 30 亿美元已经非常足够的根本原因,因为他不会像奥特曼那样,每年花费天价去供养一堆免费用户来薅自己的羊毛,他会把一切都聚焦到一个宏伟的未来身上。

对于 SSI,他没有给出明确的答案,但给了不少方向:

如果 Scaling 不行,那么就要重新回到基础能力研究上。

Ilya 认为,今天的算力是非常充裕的,但预训练的数据有限,所以瓶颈会放在关于泛化的能力上。

这意味着很多不一样的事情,比如样本效率变得很关键。就像人只需要 10 个小时的数据就能学会开车一样,大模型应该具有更好的泛化能力。

价值函数也变得更加重要。Value Function 算是整场对话中,最高频出现的词语

Value Function 有点像人类的直觉,甚至情绪。这意味着它在推理的过程中,就能意识到这一步出现了问题,而不是要探索完所有的道路。有点类似于让快慢系统中的 " 系统 2" 直接参与到辅助决策中,如此便可以大幅降低推理的成本。

这其实有点像从 " 应试教育 " 转向 " 素质教育 ",不靠背题,而靠内在学习能力的提升。

而这刚好就是 Ilya 对 ASI(超级智能)的构想:

它不是一个全知全能的模型,而是一个 " 快速学习者 ",能够用小的样本高效学习,也能像人类一样,在没有海量的指示下,持续学习。ASI 会更像一个 15 岁的超级智能学习,不知道很多东西,却不断渴望学习。

在安全方面,Ilya 认为让 AI 感知生命,可能是比理解道德更好的路径。

如果能让 AI 感知所有的生命(包括所有的动物与 AI 自己),与他们共情,会是一个更高效的方法。如果它能用同样的机制理解自己和其他感知的存在,它最终就可能产生关怀。

但即便如此,liya 依然对未来的长期均衡有所担忧。

所以他认为人类如果要避免成为 " 宠物 ",方式可能是自己也能成为一个很强大的 AI,实现方法就是通过加入脑机接口。他说自己绝对不喜欢这个方案,但它确实是一种可能性一种半人半神的,终极的 " 对齐 " 的方案。

ASI 很美,但也很遥远

当主持人问 Ilya,他描述的那个更好的系统,大概还要多久到来的时候。Ilya 说:

"5 到 20 年 "。

这是一个过于宽泛的数字。

假如往前推导 5 年前:2020 年,OpenAI 才刚刚发布 GPT3.0,tranformer 才正式成为一种共识;如果是 20 年前:2005 年,youtube 才刚刚成立,人类刚刚勉强迈入了视频消费时代。那意味着这项工程,几乎要囊括两到三代不同代际的工程师的努力。

如果 ASI 不能在五年内落地,SSI 又不做产品。那么在这期间,SSI 还要做什么,才能度过漫漫智能发展的长夜?

而从访谈中可以看到,Ilya 构想的可能是一种乌托邦式的 AGI 生态。如果我们沿着这篇访谈的观点,甚至可以描绘出它真正该有的样子:

人们对于技术路线有着热诚的追求,技术方案百花齐放,所有人都在寻找更创新的方法,而不是在标准答案上修修补补;

因此,创新是被重视的,Ideas 不是廉价的而是被珍视的,世界是被新观点而不是新算力驱动的;

在那里,技术是有审美的。它应该是简洁、优雅、美的,而不是大量浪费的,大力出奇迹的。如 ilya 说,历史上所有的突破,其实都不是依赖大规模的算力的,transformer 只是基于几张 GPU 就构建出来了。

研究者的研究是为了人类共同的文明的利益的,研究者应该重视安全性。而不是大企业大资本之间,围绕 scaling law 和用户注意力而相互倾轧的。

但当今天,AI 已经聚集了数万亿美元的投资,无论是 AGI 还是他的门徒们,都已经懂得了世故圆滑,拥有了金钱权杖。Ilya 离自己梦想的世界,可能已经渐行渐远了。

(周华香对本文亦有贡献)

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai youtube 教父 深度学习 竞赛
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论