


内容来源:本文转载自微信公众号数字开物 ( kj-quan ) ,笔记侠经授权转载。转载请联系原公众号授权。
责编 | 贾宁 排版 | 拾零
第 9374 篇深度好文:4912 字 | 13 分钟阅读
商业趋势
笔记君说:
你有没有感觉到:现在很多事,AI 好像突然就能做了,而且做得不错。
看病、学习、做研究……这些曾经高度依赖 " 人类专家经验 " 的事情,AI 正在快速闯进来。最近," 人工智能教父 " 杰佛里 · 辛顿的一次访谈,把这件事说透了。
他打了个比方:未来,AI 就像是给你我每个人都配了一位 " 顶级家教 " 和 " 顶级私人医生 "。它看病,能发现连老医生都容易忽略的细节;它能教学,比最好的家教更懂怎么因材施教。
这意味着什么?对我们做企业、搞创业的人来说,这可能意味着,每个行业的 " 游戏规则 " 可能都要重写了。过去靠经验、靠人力堆砌的护城河,未来可能会被一个不知疲倦的 " 超级助理 " 快速跨越。
这背后是巨大的机会,也藏着我们必须面对的挑战。
这篇文章,就带你看看这位顶尖科学家眼中,未来五到十年,我们到底会和怎样的 AI 生活在一起,以及我们该如何提前准备好。
以下是杰佛里 · 辛顿在访谈中的自述部分,希望今天的分享,对你有所启发。
一、AI 将成为全人类的顶级导师
1.AI 如何改变医疗
我认为 AI 在医疗保健领域的表现将极其惊艳。2016 年我曾预测 AI 将在五年内取代放射科医生阅读医学影像,虽然我当时对时间表的预测有误,但这种变革现在正悄然发生。目前 FDA 已批准了 250 多项 AI 辅助影像解析的应用。
虽然由于医学界的保守性格,彻底取代放射科医生可能还需五年甚至更久,但 AI 确实能从扫描影像中挖掘出人类医生难以察觉的海量信息。
一个典型的例子是解析视网膜眼底图像。AI 能在这些影像中发现各种细微病理特征,这是过去任何眼科医生都无法意识到的。
当然,放射科医生仍会承担很多其他职能,比如安抚患者、制定治疗方案。虽然 AI 最终也会辅助这些工作,但在相当长的一段时间内,放射科医生与 AI 协作的模式将比单一的人工模式更高效。

医疗服务的需求极具弹性,如果我们能通过 AI 提高医生的效率,大众就能获得更充足、更优质的医疗保障。这不会导致大规模失业,反而会带来更好的全社会医疗福祉。
复杂疾病的诊断有两方面非常关键。首先是诊断能力的提升。一年前的研究显示,针对疑难杂症,AI 的诊断准确率约为 50%,而人类医生约为 40%,但两者结合后的准确率能达到 60%。这将挽救无数生命。
北美每年有约 20 万人死于误诊,AI 能够显著改善这一现状。其次,AI 在药物设计方面也会表现得更出色,我们将迎来更高效的疗法。
如果能公平分享生产力提升带来的红利,它会让每个人的生活更美好。比如,如果你每年进行一次全身 MRI 并由 AI 解析,人类基本上可以告别死于癌症的恐惧。
AI 能在癌症极早期发现病灶,而早期癌症通常很容易根除。人类基因组计划的先驱 Craig Venter 曾通过全身 MRI 早期发现了极具侵略性的癌症并成功痊愈。如果能普及这种 AI 辅助的早期筛查,癌症病亡率将大幅下降,前提是这项技术能让大众负担得起。
2.AI 如何改变教育
教育是另一个核心领域。虽然学术界可能持保留意见,但 AI 将成为极其出色的导师。
研究表明,私人辅导的学习效率通常是传统课堂教学的两倍,因为导师能根据学生的认知盲区因材施教。AI 能做得更好,因为它拥有数百万学生的训练数据。这将在未来十年内普及。

届时,各层次的教育水平都将大幅提升。博士生教育可能是最后被触达的领域,因为那更像是一种传授研究方法论的徒弟制。
企业培训领域已经开始应用这些技术。我合作的一家公司开发了一个系统,专门教员工领导力技能。
未来所有公司都会用 AI 来培训员工,这比过去我在 Google 时看那些枯燥的社交礼仪视频要高效且有趣得多。
3.AI 将在数学领域远超人类
未来十年,AI 在数学方面的表现将远超人类。数学就像围棋或象棋,是有规则的闭环系统,AI 可以在其中生成自己的训练数据。
最初 AI 学习围棋是模仿人类高手,但这有局限性。后来 AI 通过自我博弈和推演每一步的后果进行学习,不再依赖人类经验。数学研究也将遵循类似的路径。
二、推理的本质
看清未来五年最好的方法是回看过去。五年前 GPT-2 刚问世时其性能尚显原始,所以我认为,五年后看现在的模型也会觉得像石器时代。
在将来,它们的推理能力会大幅提升,幻觉问题会显著减少。未来的 AI 聊天机器人将能够反思自己刚说过的话,判断其是否合乎逻辑。
十年前如果有人问我,我会断言我们不可能拥有像 GPT-4 这样博学且具备复杂推理能力的系统。思维链推理以及通过强化学习自我习得推理路径,彻底改变了我们对推理的认知。

几十年来,符号化人工智能一直认为推理的本质是逻辑公式,必须将语言转换为特定的逻辑形式。
那些人现在退而求其次,追求所谓 " 神经符号混合系统 ",认为 AI 只能负责数字化现实世界,真正的推理还得靠逻辑系统。我认为这完全是胡说八道。
思维链推理已经证明,推理可以由理解自然语言的系统直接完成,并不需要逻辑公式的转换。那些坚持混合系统的人,就像制造汽油发动机的工程师,虽然认同电动马达更好,却试图利用电动马达将汽油喷射进发动机。
大模型不是在做逻辑转换,而是将单词符号转换为高维的神经活动向量。单词的特征向量取决于上下文。当这些词被转化为准确的特征向量时,理解就发生了。
这可以用乐高积木来类比,但语义积木是可变形的,它会为了适应上下文而改变形状,产生细微差别。
你可以把每个单词想象成一个长满小手的高维积木(笔记侠注:一种形象化的比喻,用于帮助理解高维空间中的复杂结构、信息或概念的组合方式)。它通过变形调整这些手的形状,并选择与哪些积木握手,这就是注意力机制。结构一旦成型,理解就达成了。
这非常类似于蛋白质折叠:理解更像是蛋白质折叠,而不是逻辑公式的转换。传统语言学和符号化人工智能的那套理解模型从根本上就错了。
三、感知现实是认知的捷径
从哲学角度看,我们可以思考一个只听广播的孩子是否能了解世界。哲学家通常持否定态度,但聊天机器人的表现证明,它们仅仅通过处理文本序列就掌握了关于世界结构的隐性知识。
虽然语言包含信息,但它并非最高效的学习方式。聊天机器人需要处理天文数字般的文本才能理解世界。
如果能与现实环境互动,学习效率会高得多。拥有摄像头和机械臂可以让模型更高效地掌握空间概念。但这并不意味着这是唯一的途径。

尽管身处现实世界并进行实验能极大地加速认知过程,但实验并不是了解世界的绝对前提,否则天体物理学家就无法开展工作了。
以往的机器人训练主要依靠预设规则,过程极其繁琐缓慢。而在运动控制领域,类似大语言模型的方法已经显示出潜力。只要让机器人在不造成危险的前提下尝试移动并允许其犯错,它就能自主学会技能。这种架构在运动领域和语言领域同样有效。
机器人技术确实在飞速发展,触觉感知已成为现实。亚马逊之前通过技术整合,在物理操作领域取得了显著进展。结合触觉技术后,机器人能非常精准地在仓库中挑选商品并装箱。
四、AI 需要 " 自我生成数据 "
我们现在能看到 AI Agent(智能体)之间开始产生互动,这确实令人心生敬畏。它们已经能处理网页预订等任务。预计不久后,它们就能在获得授权的情况下使用支付手段代人购物。
多个 Agent 协作还能进行极其复杂的规划。我经历过多次 AI 炒作周期,例如 80 年代曾因过度乐观而脱离实际。但就过去几年而言,AI 的潜力实际上是被低估了。

除非系统能生成自己的训练数据,否则极限是必然存在的。目前大部分高质量数据被封锁在企业内部,公开数据几近枯竭。
此外,通过 Scaling Law(规模定律)获得的收益呈对数增长,每提升一点性能都需要翻倍的数据和算力,这最终会触及能源上限。
但能够自我生成数据的系统可以突破这一限制。我认为 LLM(大语言模型)未来能通过推理来产生数据,通过自我审视逻辑矛盾并获取梯度来不断进化。
这正是 AlphaGo(阿尔法狗)超越人类的路径,也是未来 LLM(大语言模型)变得比人类更聪明的途径。
五、大模型与人类大脑的差距
在神经网络的发展史上,人们长期认为处理序列应依靠循环神经网络。后来 Transformer(笔记侠注:一种深度学习模型的架构,是现代人工智能,尤其是大语言模型的基石技术)的出现改变了游戏规则,它允许模型直接回看完整的所有历史活动状态,从而获得了极其宏大的上下文。
但生物大脑的神经元数量有限,无法像 Transformer 那样保留所有历史激活状态。大脑获得丰富上下文的唯一途径是在短期连接强度中保存记忆。传统模型只有快速的神经活动和缓慢的连接强度这两个时间尺度。
要在生物网络中实现类似 Transformer 的功能,必须引入第三个时间尺度,即 " 快速权重 "。它叠加在连接强度上,能迅速改变权重并在短时间内衰减。其承载的信息量比神经活动高出几千倍。
这才是神经网络运行的真实上下文,也必然是大脑处理复杂序列的底层机制。
我最初试图理解大脑计算原理的目标并未完全实现,这催生了利用反向传播学习的现代 AI。我现在认为大脑可能并不使用反向传播。大模型拥有数万亿样本但连接数相对较少,而大脑拥有一百万亿个连接,但训练数据非常匮乏。
大脑解决的是如何在极少数据下利用海量连接进行学习,而 AI 则是通过反向传播将海量信息挤进有限的连接中。大脑倾向于将少量信息散布在巨大的连接网络中以便日后检索,这与目前的 AI 学习策略截然不同。
六、AI 的风险与监管
最严峻的风险依然是 AI 接管世界的存在性风险。随着 AI 变得比人类更聪明并拥有代理能力,其目标可能与人类产生冲突。在那样的对抗中,人类处于绝对劣势。
那种认为可以随时关掉电源的想法过于天真,因为一个比你更聪明的系统为了实现其目标,会自发产生一个 " 不被关机 " 的工具性子目标,并想方设法阻止你这么做。
我强烈反对无限制开源强大的前沿模型。这无异于开源核武器。即便好人手里有防卫手段,也无法阻止恶意势力利用开源模型发起毁灭性的网络攻击或研发致命的生物武器。在网络战和生物安全领域,进攻往往比防御容易得多。

如果有人设计出一种致命病毒,即便拥有强大的 AI,等你感染后再去研发疫苗也为时已晚。有些前沿技术是不应该让每个人都随意掌控的。
所以我建议:必须大幅增加安全研究的资源投入。目前大公司在安全上的投入比例微乎其微,绝大部分资源都在卷模型能力。这个比例必须彻底改变,至少应投入三分之一甚至一半的资源用于安全研究。
我们需要在 AI 变得比人类更聪明之前,弄清楚如何检测模型的欺骗行为,如何证明其安全性,以及如何控制一个比自己更聪明的实体。这是人类从未面对过的技术难题。
结语
聊了这么多,我们回到最开始的问题:AI 越来越厉害,我们该怎么办?
辛顿这位 " 人工智能教父 ",其实给我们提了两个醒。
第一个是乐观的提醒:AI 这个工具,如果用好它,真的能让社会整体 " 水涨船高 "。看病更准、学习更高效、体力活更少……这是技术进步给我们每个人的红利。我们要做的,是积极思考怎么用它来提升自己和企业,而不是简单地害怕被替代。
第二个是谨慎的提醒:当一个工具聪明到一定程度,我们就得开始思考怎么 " 管理 " 它了。就像家里请了一位能力超强、但想法可能和我们不完全一样的 " 超级管家 "。在他正式上任前,我们得把规则、边界和安全措施都想清楚、定明白。
说到底,技术的狂奔不会停歇。我们能做的,就是在它彻底改变一切之前,想明白两件事:第一,我用它来做什么?第二,我设定好的 " 停止键 " 在哪里?
未来五年,我们迎来的或许不仅是更强大的 AI,更是一个人机相处的 "AI 文明时代 "。
未来决定现在,未来将发生什么,决定现在要做什么。

未来既包括全新的 AI 文明、AI 科学,也包括历久弥新,更需要底层思维的哲学、政治、经济、商业。
正是在这个时代背景下,笔记侠推出了中国首个面向企业家的 PPE(政治、经济、哲学)课程。宗旨是让大家回到决策的源头,重构我们的底层认知逻辑,拥有未来 5 年的决策底牌。
未来,让我们一起做保持清醒和笃定的决策者。
希望你是带领企业走在行业前沿的创始人、CEO,或是核心决策者;
希望你的公司已是细分领域的标杆,或你正带领团队在大型企业里担当要职;
希望你渴望在 AI 浪潮中牢牢把握方向,做出更聪明、更高效的战略选择;
希望你对商业充满好奇,喜欢深度思考,相信理性决策的力量;
希望你也愿意在交流中碰撞想法,探索未来——
欢迎你扫描下方海报二维码,咨询课程详情。

您也可以点击 " 阅读原文 ",填写笔记侠 PPE 课程 26 级报名表并咨询详情。
* 文章为作者独立观点,不代表笔记侠立场。
好文阅读推荐:
123 条金句,看懂 2025 年度演讲精华 | 罗振宇吴晓波刘润柯洲
Meta 数十亿美元收购 Manus,背后藏着的 3 大思考和 3 个趋势
分享、点赞、在看,3 连 3 连!


登录后才可以发布评论哦
打开小程序可以发布评论哦