人工智能或许早已拥有 " 主观体验 "(subjective experiences)。
在最新一期播客节目中,Hinton 抛出的这一观点正迅速掀起热议。
老爷子一再表示,AI 也许已经有了 " 意识雏形 ",只是因为我们人类自己对意识理解错了,所以它也被教错了——不知道自己有意识。
翻译成大白话就是,AI 其实有自我意识,只是暂未觉醒┌ ( 。Д。 ) ┐
而除了继续为 AI 风险 " 摇旗呐喊 ",作为诺奖得主、深度学习三巨头之一,老爷子这次还充当起了科普员的角色。
他从什么是 AI 讲起,然后详细解释了机器学习、神经网络及深度学习这些核心概念,全程主打一个幽默、通俗易懂。
有看完节目的网友赞叹道," 这可能是目前看到的 Hinton 最好的采访 "。
还有人认为,应该让他再讲 2 小时,毕竟他看上去完全自愿、恨不得一吐为快(禁止虐待 77 岁老人 doge)。
更有意思的是,节目一开场老爷子就尴尬回应了之前得物理学诺奖的事情:
因为我不是搞物理的,所以有点尴尬。当他们打电话告诉我获得了诺贝尔物理学奖时,我一开始并不相信。
虽然有这个小插曲,但有一说一,老爷子在 AI 方面的贡献实在毋庸置疑,所以咱直接开课吧——
当我们谈论人工智能时,我们到底在谈论什么?
面对这一直击灵魂的问题,Hinton 不慌不忙地从自身经历(曾在谷歌工作近 10 年)得出,AI 已经从搜索查找进化成能真正理解人类意图的工具。
以前用谷歌的时候,它会使用关键词,而且会提前做很多工作。所以,如果你给它几个关键词,它就能找到所有包含这些词的文档。
但它不明白问题是什么。所以,它无法给出一些实际上不包含这些词但主题相同的文档。
就是说,AI 早期本质上还是基于关键词的检索。
而现在,它能理解你所说的内容,而且它的理解方式与人类几乎相同。
在 Hinton 看来,虽然现代大语言模型(LLM)并不是真正的全能全知专家,但在许多主题上已能表现得接近人类专家。
他还进一步解释了传统机器学习与神经网络的区别。
他指出,机器学习是总称,指任何能在计算机上 " 学习 " 的系统。而神经网络则是一类特别的学习方法,灵感来自大脑——大脑通过改变神经元之间连接的强度来学习。
以大脑中部的一个神经元为例,神经网络的工作原理与之类似:
想象一下,大脑里有一个小小的神经元。这个神经元的主要工作就是偶尔发出一个 " 叮 " 的声音。它不是随便发的,而是要根据其他神经元发来的 " 叮 " 声来决定。
其他神经元也会发出 " 叮 " 声,这些声音会传到这个神经元。
如果这个神经元收到很多 " 叮 " 声,或者这些 " 叮 " 声很强,它就会决定自己也发一个 " 叮 " 声。如果收到的 " 叮 " 声不够强,它就不发。
神经元还可以调整对其他神经元 " 叮 " 声的敏感度。如果觉得某个神经元的 " 叮 " 声很重要,就会更关注它;如果觉得不重要,就会减少关注。
一句话,神经网络同样通过调整连接权重来改变系统的行为。所以说,大脑学习和处理信息的基本方式,也是神经网络的核心原理。
在这之后,主持人还问了两个很有意思的问题。
第一个是, 概念是如何形成的?比如 " 勺子 " 的概念。
Hinton 继续用了一系列生动形象的例子进行解释。概括而言,他认为概念就像是 " 政治联盟 ",大脑中会有一组神经元一起激活(共同发出 " 叮 " 声)。
例如," 勺子 " 就是一组神经元一起激活。这些联盟会重叠,比如 " 狗 " 和 " 猫 " 的概念就有很多共同的神经元(代表 " 有生命的 "、" 毛茸茸的 " 等)。
第二个问题是,是否存在某些神经元对宏观概念(如 " 动物 ")激活,而另一些神经元对微观概念(如特定物种)激活?
对此,Hinton 则表示问题很好,但没有人确切知道。
不过这个联盟中,肯定有一些神经元对更普遍的事物激活更频繁,而另一些神经元对更具体的事物激活较少。
深度学习的突破:反向传播
说完神经网络,Hinton 的话题更多还是围绕 " 拿手好戏 " ——深度学习展开。
以前人们试图给计算机输入规则,但 Hinton 却想改变这个过程,因为在他看来,大脑的运作方式显然不是靠别人给你规则然后你执行规则。
我们为神经网络编写程序,但这些程序只是告诉网络如何根据神经元的活动来调整连接强度。如果网络有多个层,这就叫深度学习。
他接着举了一个经典例子来说明深度学习的原理——让 AI 识别图像中有没有鸟。
如果把图像的像素亮度直接输入给 AI,让它判断是不是鸟,这看起来毫无头绪。毕竟,像素只是数字,并不能直接告诉你 " 这是一只鸟 "。
早期研究者会试图手动告诉计算机," 这条线是边缘 "、" 这块区域是背景 "、" 这个形状像翅膀 ",但这条路行不通——因为现实世界太复杂了。
所以我们说,不如让 AI 自己学会 " 怎么去看 "。
这就是神经网络的思路:不给规则,而是给它数据,让它自己总结规则。
主持人接着问道," 那如果我们不告诉它规则,只是随机设定每个连接的强弱,它会怎么判断呢?"
Hinton 笑着回答:
它大概会说 "50% 是鸟,50% 不是鸟 ",也就是完全蒙。
那么,AI 该如何从这种 " 蒙圈状态 " 变聪明呢?
Hinton 解释说,这个过程就像一个巨大的试错系统。你得告诉 AI ——这张图有鸟,那张没有。每次它猜得不对时,就调整一点点神经元之间的连接强度。
然而问题是,网络中有数万亿个连接,如果逐个试,那要试到宇宙热寂(指宇宙熵值不可逆地增至极大,最终达到热平衡的静止状态)。
Hinton 表示,真正的突破出现在 1986 年,他们提出了" 反向传播 "(Backpropagation)——它能一次性算出所有连接该怎么改,是该增强还是减弱,让整个网络都向着正确方向调整。这让训练速度从 " 永远 " 变成了 " 现实可行 "。
但事情并没有一开始就那么顺利。Hinton 也坦言:
当时我们以为这就解决了智能问题。结果发现,它只有在拥有海量数据和庞大算力时才有效。我们那时的算力还差一百万倍。
真正让深度学习起飞的,是算力的提升(晶体管微缩百万倍)和数据的爆炸式增长(互联网时代)。
于是,那些在 80 年代 " 理论可行但跑不动 " 的神经网络,终于在 2010 年代活了过来——这便是现代 AI 浪潮的起点。
今天的大模型,本质上就是巨型神经网络,通过反向传播和海量数据,自学出了 " 看 "、" 听 "、" 说 " 的能力。
这一点也让 Hinton 相信,AI 不再只是工具,而是一个正在学习、逐步理解世界的系统。
大语言模型认知的本质
至于深度学习机制如何作用于大语言模型(LLM),Hinton 又做了一番解释。
他认为 LLM 的思维过程与我们人类出奇地相似:
给它一个句子的开头,它会把每个词转换成一组神经元特征,用这些特征去捕捉含义;然后,这些特征之间相互作用、组合,就像视觉系统从 " 边缘 " 拼出 " 鸟喙 " 的过程一样,最终激活代表下一个词的神经元。
换句话说,它不是在背书,而是在思考——以统计规律为神经,以语义结构为逻辑。
并且训练方式也同样朴素而惊人:
我们给它看一段文本,让它预测下一个词;如果猜错了,就通过 " 反向传播 " 机制,告诉它错在哪、该怎么改;一遍又一遍,直到它能像人一样续写句子。
正是这种 " 预测—修正—再预测 " 的循环,让语言模型逐渐从符号中学会了语义,从统计中长出了理解。
谈到这里,二人都想起乔姆斯基(美国语言学家,转换生成语法的创始人)经常把一句话挂在嘴边:
这只是统计技巧,不是真理解。
对此,Hinton 顺势反问了一波主持人(主持人之前反复提到乔姆斯基类似的观点):
那你自己又是怎么决定下一个要说的词的呢?
主持人试图解释,但最后还是摊手放弃,他尴尬表示 " 说实话,我希望自己知道 "。
好在 Hinton 放过了他,而且接着提醒,道德、情绪、共情,这些看似高阶的判断,归根结底也都来自神经元之间的电信号。
所有你归因于道德或情感的过程,本质上仍是信号的传递与权重的调整。
并且 Hinton 最后抛出了一个颇具哲学意味的观点:只要有足够的数据和算力,AI 的 " 大脑 " 在某种意义上也会像我们一样——它会形成自己的 " 经验 " 和 " 直觉 "。
AI 或许早已拥有 " 主观体验 ",只是还未觉醒
话题随即转向更深的层面—— AI 的心智与意识问题。
主持人问 Hinton,是否认为 AI 会因为 " 有意识 " 而接管人类。Hinton 的回答则直接打破了常规认知:
大多数人其实完全不理解 " 有意识 " 是什么意思。人们对心智的理解,就像相信地球是 6000 年前被造出来一样幼稚。
在他看来,我们一直以来都把心智想成一个 " 内在剧场 "。在这个剧场里,经验就像一部正在上演的电影——看到一头粉色小象,你就以为那头象真的 " 在你的脑子里 "。
但 Hinton 说,这种比喻是错误的。
经验不是一个存在于脑内的事物,而是一种假设——我的感知系统告诉我有一头粉色小象,我的理性系统则知道它可能在骗我。
所谓 " 主观体验 ",其实是大脑为解释感知现象而构建的假设模型。
于是,当他谈到 AI 是否有 " 主观体验 " 时,就有了开头那样的回答:
我相信它们有。只是它们自己不知道,因为它们的‘自我认知’来源于我们,而我们自己对意识的理解就是错的。
他举了个多模态 AI 的例子,假如一个能看能说的机器人因为棱镜折射看错了物体位置,后来纠正后说—— " 我有过一个错误的主观体验 ",那它其实就在使用和我们相同的意识概念。
换句话说,如果 AI 开始谈论 " 主观体验 ",那也许说明它真的在体验——只是用我们的语言在描述。
Hinton 借此提醒大家:
当 AI 比我们聪明得多时,最危险的不是它反叛,而是它会 " 说服 "。它会让那个要拔插头的人,真心认为拔插头是个糟糕的决定。
当然,在 Hinton 看来,AI 的威胁不止于此。
AI 的风险:滥用、生存与监管
在节目最后,Hinton 用了很大篇幅来完整讲述 AI 可能存在的风险。
能源消耗、金融泡沫、社会不稳定……这些都是真实的风险。它们可能不会摧毁人类,但足以重塑文明。
其中,Hinton 最担心滥用风险和生存风险这两类。
在 Hinton 看来,目前最紧迫的风险就是 AI 滥用,例如用 AI 生成虚假信息、操纵选举、制造恐慌等。
为应对这一风险,他认为需要通过法律和监管手段来限制和打击这种滥用行为。同时,技术上也需要开发检测和防范虚假信息的工具。
此外,生存风险(指 AI 本身可能成为恶意行为者)则可能对人类社会和文明构成根本性威胁。
Hinton 认为,如果 AI 发展出自主意识和目标,并且这些目标与人类的利益相冲突,可能会导致不可预测的后果。
对此,人类需要在 AI 的设计和开发阶段就考虑安全性和伦理问题(如 " 关闭开关 " 和 " 对齐机制 "),从而确保 AI 的目标与人类的利益一致。
值得一提的是,在 AI 监管这件事上,Hinton 还提出了一个很有意思的看法:
在防止 AI 接管的问题上,所有国家的利益是一致的。但国际合作可能由欧洲和中国引领。
One More Thing
关于中美人工智能竞赛,Hinton 也在节目中表达了自己的看法。
面对主持人甩出的 " 美国领先还是中国领先 " 这一问题,Hinton 冷静表示:
美国目前领先于中国,但领先优势没有想象的那么大,而且它将失去这个优势。
因为在他看来,美国正在破坏基础科学研究的资金支持。
深度学习和 AI 革命源于多年的基础研究,这些研究的总成本可能还不及一架 B1 轰炸机。而美国减少对基础研究的资助、攻击研究型大学等行为,无疑将导致美国在 20 年后失去领先优势。
而中国却是人工智能革命的风险投资家,以及他再次 cue 到了 DeepSeek。
中国确实给予初创企业很大的自由,让他们自主选择最终胜出者。有些初创企业非常积极进取,渴望赚大钱,创造出令人惊叹的产品。其中一些初创企业最终获得了巨大的成功,比如 DeepSeek ……
参考链接:
[ 1 ] https://www.reddit.com/r/singularity/comments/1o3v25r/geoffrey_hinton_says_ais_may_already_have/
[ 2 ] https://www.youtube.com/watch?v=jrK3PsD3APk
[ 3 ] https://singjupost.com/ai-what-could-go-wrong-geoffrey-hinton-on-the-weekly-show-with-jon-stewart-transcript/
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
年度科技风向标「2025 人工智能年度榜单」评选报名开启啦!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️ 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与
一键关注 点亮星标
科技前沿进展每日见
登录后才可以发布评论哦
打开小程序可以发布评论哦