全天候科技 07-26
“AI教父”辛顿WAIC演讲:我们正在养一头老虎,别指望能“关掉它”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

7 月 26 日上午,2025 世界人工智能大会(WAIC)在上海拉开帷幕。

在大会主论坛上,图灵奖得主、诺贝尔物理学奖得主杰弗里 · 辛顿(Geoffrey Hinton)出席并作演讲,这也是辛顿首次以线下形式在中国公开亮相。

辛顿本次演讲以《数字智能是否会取代生物智能》为主题,他深刻剖析了数字智能与生物智能的根本差异,并分别用乐高积木和养老虎打比方说明了 AI 的思维逻辑以及人与 AI 的关系。

在对 AI 前景方面,辛顿感到警惕。他直言,我们正创造比自己更聪明的 AI,这就像在家里养一头老虎当宠物,指望 " 消除它 " 是不现实的。

以下是辛顿的核心观点:

AI 发展有两种范式,一是逻辑型范式,认为智能本质在于推理,通过符号规则操作符号表达式;二是生物学基础范式,认为智能基础在于学习和联结网络,理解先于学习。

大语言模型理解语言的方式与人类基本相同。人类有可能就是大语言模型,也会像大语言模型一样产生幻觉,创造出许多幻觉性语言。

如果用乐高积木类比看,每个词都是多维度的积木,可以根据上下文调整形状,词与词之间需要 " 恰当握手 " 来产生含义。这种动态的特征整合过程,正是人脑和神经网络理解语言的根本方法。

数字智能具有两大优势:一是软硬件分离带来的 " 永恒性 ",知识可以永久保存和复制;二是知识传播效率极高,数字智能可以通过参数共享瞬间传递万亿比特信息。相比之下,生物智能虽然耗能更少,但知识分享困难。

当能源足够廉价、可以复制成千上万同样聪明的 AI 大脑的时候,数字智能将不可逆地超越生物智能。因为它们能以直接拷贝大脑知识的方式在群体中瞬时传播知识。

我们正在创造比人类更聪明的 AI,而这些智能体具有生存欲望和获取控制权的动机。

当前人类与 AI 的关系,恰似饲养一只老虎——它长大后可能轻易超越人类。为了生存,要么摆脱它,要么找到永久保护自身的方法。

AI 已无法消除,它能大幅提升几乎所有行业的效率,即便有国家想消除,其他国家也不会认同。

辛顿建议,我们应当建立国际 AI 安全机构网络,研究如何训练超级 AI 向善,让它们愿意做辅助工作而不是消灭人类。

如何训练比人类更聪明的 " 好 AI",将是全人类的长期课题。好消息是在这个问题上,所有国家都有合作的动机和可能性。

以下为演讲全文纪要:

各位同事、各位领导、女士们先生们,感谢大家给我这个机会,与各位分享我对 AI 历史和未来的个人观点。

60 多年来,AI 发展呈现出两种不同的范式和路径。第一种是逻辑型范式,过去一个世纪都以此为主导。这种观点认为智能的本质在于推理,通过符号规则对符号表达式进行操作来实现推理,从而帮助我们更好地理解知识的表达方式。

另一种是以生物学为基础的 AI 理解方式,这也是图灵和冯诺依曼所相信的观点。他们认为智能的基础在于更好地学习和了解学习网络中的连接,在这个过程中理解是第一位的,然后才能实现学习。与这两种理论相对应的,一个是符号型 AI 原理,另一个则是完全不同的数字化理论。数字的本质实际上是一系列语义学特征的集合。

1985 年,我创建了一个小型模型,试图将这两个理论结合起来,更好地理解人们如何理解词汇。我为每个词设置了多个不同特征,记录前一个数字的特征后,就可以预测下一个数字或下一个词,然后继续预测后续词汇。在这个过程中,我们没有存储任何句子,而是生成句子并预测下一个词。这些关联性知识取决于不同词汇特征之间的语义互动。

接下来的 30 年发生了什么呢?

十年后,Bengio 采用了类似的建模方式,但将规模大幅扩展,使其成为自然语言的真实模拟。20 年后,计算语言学家开始接受特征向量嵌入来表达词汇含义。又过了 30 年,谷歌发明了 Transformer,OpenAI 的研究人员也向大家展示了这一技术的能力。

这就是我们今天所拥有的成果。

因此,我将今天的大语言模型视为早期微型语言模型的后代,它们拥有了更丰富的词汇量。

1985 年以后,大语言模型开始使用更多词汇作为输入,采用更多层的神经元结构。由于需要处理大量模糊的数字,学习特征之间建立了更加复杂的交互模式。大语言模型与人类理解语言的方式相同,基本理解过程是将语言转化为特征,然后以完美的方式整合这些特征。这正是大语言模型各个层次所做的工作。因此,大语言模型真正理解人类如何理解问题,与人类理解语言的方式一致。

传统符号 AI 的做法是将语言转化为不模糊的符号,但实际情况并非如此,人类不是这样理解语言的。可以用乐高积木来比喻理解过程:通过乐高积木可以搭建任何 3D 模型,比如制作车子的小模型。将每个词视为一个多维度的乐高积木,可能包含几千个不同维度。这种多维度的积木可以进行建模,创造多种不同内容,语言因此变成了一个建模工具,能够随时与人沟通,只需要给每个积木命名即可,每个积木就是一个词。

语言和乐高积木存在许多差异。乐高积木有多种不同类型,数量达到成千上万块。乐高积木的造型是固定的,但词的符号形状可以进行设定,也可以根据不同情况进行调整。乐高积木通过塑料圆柱体插入塑料孔,或将正方形插入正方形孔来连接,相对确定。

语言却不同,每个词可以想象成有很多只手。要更好地理解词汇,需要让词与词之间恰当地握手。一旦词的造型发生变形,它与另一个词的握手方式就会改变。这涉及优化问题:一个词变形后意思发生变化,如何与下一个词握手以产生更好的含义。这就是人脑理解意思的本质,也是神经网络理解意思的根本方法,类似于蛋白质与蛋白质之间的组合过程。

蛋白质通过将氨基酸进行不同模型整合融合,结合后能产生更有意义的内容。这正是人脑理解词汇和语言的方式。因此我认为,人类理解语言的方式和大语言模型理解语言的方式几乎相同,人类有可能就是大语言模型,也会像大语言模型一样产生幻觉,创造出许多幻觉性语言。

但在一些重要的根本性方面,大语言模型与人类不同,甚至比人类更强大。计算机科学的一个基础原则是将软件和硬件分离,这使得同样的软件可以在不同硬件上运行,这与人类存在根本差异,也是计算机科学存在的基础。

程序中的知识是永恒存在的,软件和程序可以永久保存。即使所有硬件都被摧毁,只要软件继续存在,就可以随时复活。从这个意义上说,计算机程序的知识具有永恒性和不朽性。

要实现这种永恒性,需要晶体管在高功率运行时仍能产生可靠的二进制行为,这个过程成本很高。我们无法利用硬件中丰富的模拟特性,因为这些特性不够稳定可靠,每次都是模拟型的,每次计算结果都不相同。人脑是模拟的而非数字的,每次神经元激发过程都是模拟型的,不会完全相同。我无法将自己大脑中的神经元结构转移到他人大脑中,因为每个人的神经元连接方式都不同,我的神经元连接方式只适合我的大脑神经结构。知识传播在硬件中的方式与在人脑中的方式不同,这正是问题所在。

如果我们做不到永生,硬件的优势在于它不依赖于特定条件,因此具有永生特性,能带来两大好处。

我们可以使用功耗极低的模拟硬件。仅用很小的功率和电能就能实现功能,人脑只需要 30 瓦特就足够运行,而我们有几万亿个神经元连接。这种发展硬件的情况与电子管的发展类似。

我们能够做到极其精确的模拟,不需要花费大量资金去制造完全相同的硬件。

但是我们现在面临一个较大的问题:从一个模拟模型转换到另一个模型,将知识进行迁移是非常低效和困难的。就像我无法直接将脑中的想法展示给你一样,我只能通过解释的方式向你说明已经学到的内容。

解决这个问题的最佳方法是蒸馏技术。DeepSeek 就采用了这种方法,将大型神经网络的知识转移到小型神经网络中。这个想法基于教师和学生的关系模型,在某些情况下,教师将相关概念联系起来,生成下一个输出单元。

他将词汇与词汇在上下文中相互连接,通过修改连接来建立联系。学生也可以表达相同的意思,但他需要调整表达方式来传达相同含义。

我们训练模型的方式与人类知识传递的方式相似,即将一个人的知识传递给另一个人,但这种方式效率很低。

一句话可能包含大约一百比特的信息,这个信息量并不算特别多。这种从一个人到另一个人的传递方式限制了我们转移知识的数量。通过缓慢讲话的方式将知识传递给他人,每秒钟最多也就能传递 100 个比特左右的信息。即使对方完全理解了所说的内容,传递效率仍然不高。但如果与数字智能之间的知识转化效率相比,两者存在巨大差别。

如果我们拥有同一个神经网络软件的多个副本,将这些副本分别部署在不同的硬件设备上,由于它们都采用数字化方式,它们能够以相同的方式使用各自的参数,并通过平均化位置参数的方式来实现知识共享,最终通过互联网进行传播。

我们可以创建成千上万的拷贝,它们能够自主改变权重并取平均数,从而实现知识转移。

这种转移速度取决于连接点的数量。每次能够分享万亿个比特的信息,比人类分享知识的速度快几十亿倍。GPT-4 就是很好的例子,它有许多不同的拷贝在不同硬件上运转,能够分享各自从网络上学到的不同信息。

当智能体在现实世界中运行时,这一点更加重要,因为它们能够不断加速和拷贝。多个智能体比单个智能体学得更多,它们能够分享权重,而模拟软件或模拟硬件无法做到这一点。

我们认为,数字计算虽然需要大量能源,但智能体可以方便地获取相同权重,分享从不同经验中学到的知识。相比之下,生物计算耗能更少,但分享知识却很困难。如我刚才所展示的,如果能源很便宜,数字计算就会更具优势,这也让我感到担忧。

几乎所有专家都认为我们将生产出比人类更智能的 AI。我们习惯了成为最智能的生物,所以很多人难以想象当 AI 在世界中比人类更智能时会发生什么。如果想要了解人类不再是最智能物种时会怎样,我们可以问问鸡的感受。

我们正在创建 AI 智能体,它们能够帮助我们完成任务。这些智能体已经具备了一定的能力,可以进行自我复制,能够为自己的子目标评级。它们会想做两件事情:第一是生存,第二是实现我们赋予它们的目标。

为了完成我们给它们的目标,它们也希望能够获得更多的控制权。所以这些智能体既想要生存,也想要更多的控制。

我认为我们没办法轻易改变或关闭它们。我们不能简单地把它们一关了事,因为它们会很方便地操纵使用它们的人。到时候我们就像三岁的孩子,而它们像成年人一样,操纵三岁的人是很容易的。

有人觉得当它们变得比我们更聪明时,我们就把它们关掉,但这是不现实的。它们会操纵和劝说操控机器的人不要把它们关掉。

我觉得我们现在的情况就像有人把老虎当宠物。老虎幼崽确实可以是很可爱的宠物,但如果一直养这个宠物,那么你要确保它长大的时候不会把你杀掉。

一般来说,养老虎当宠物不是一个好想法。但如果你养了老虎,只有两个选择。要么把它训练好让它不攻击你,要么把它消灭掉。而对于 AI,我们没有办法把它消灭掉。

AI 在很多方面都表现出色,包括医疗、教育、气候变化、新材料等领域,几乎能够帮助所有行业变得更有效率。我们无法消除 AI,即使一个国家消除了 AI,别的国家也不会这么做,所以这不是一个选项。这意味着如果我们想要人类生存,就必须找到办法来训练 AI,让它们不要消灭人类。

我需要强调的是,我是以个人身份发言,发表个人观点。我觉得各个国家在某些方面可能不会合作,比如网络攻击、致命武器,或者操纵公众意见的虚假视频。不同国家的利益并不一致,他们有着不同的看法。在这些方面不会有有效的国际合作。我们可以防止一些人制造病毒,但在这些方面不会有什么国际合作。不过有一个方面我们是会进行合作的,我觉得这也是最重要的问题。

如果你看一下 50 年代冷战巅峰时期,美国和苏联一起合作来预防全球核战争。大家都不希望打核战争,尽管他们在很多方面都是对抗的,但在这一点上可以合作。我们现在的局面是,没有一个国家希望 AI 统治世界,每个国家都希望人类能够掌控世界。如果有一个国家找到办法来防止 AI 操纵事件,那么这个国家肯定会很乐意告诉其他国家。

所以我们希望国际社会能够有一个 AI 安全机构组成的国际社群,来研究技能,培训 AI,让它们向善。我们的希望是,训练 AI 向善的技术与训练 AI 变得聪明的技术是不同的。因此,每个国家都可以进行自己的研究来让 AI 向善,可以在自己的主权 AI 上进行这项研究。虽然不能对其他国家保密,但可以与大家分享结果,即如何训练 AI 向善。

这是我的提议:全球或世界主要国家,或者主要的 AI 国家应该考虑建立一个网络,包括来自各国的机构来研究这些问题,研究如何训练一个已经非常聪明的 AI,使这个 AI 不想消灭人类,不想统治世界,并且乐意做辅助工作,即使 AI 比人类聪明得多。我们还不知道如何做到这一点。

从长期来说,这可以说是人类面临的最重要问题。好消息是在这个问题上,所有国家都可以一起合作。谢谢。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 老虎 生物 世界人工智能大会 杰弗里
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论