从前沿想象到 AI(人工智能)落地,人类如何面对新一轮技术浪潮?
昨天,2025 Inclusion · 外滩大会上,围绕 " 探索智能上限、深入产业实践、全球协作与发展 " 主线,国内外大咖共同探索 AI 时代的创新路径,也深度思考人类与 AI 的共生共存。
解决少 " 油 " 缺电,迎接 AI" 经验时代 "
众所周知,AI 发展有三要素:算法、算力和数据,三者缺一不可。
不过,2024 年图灵奖得主、" 强化学习之父 " 理查德 · 萨顿昨天在主旨演讲伊始就泼了盆冷水:人类数据红利正逼近极限。他表示:" 今天大多数机器学习是把人类已有的知识转移到静态、缺乏自主学习能力的 AI 上,但当数据红利逼近极限时,现有的方法不能生成新的知识,而持续学习对智能的效用至关重要。"
没了 " 数据石油 ",AI 还如何跃升?萨顿认为,AI 正进入以持续学习为核心的 " 经验时代 ",潜力将远超以往。他表示," 经验时代 " 需要一种新的数据源,由智能体与世界直接交互生成,这正是人类和其他动物的学习方式,是 AlphaGo 自我博弈下的 " 第 37 手 "(指 AI 超越人类经验作出的创造性决策)。
在萨顿看来," 经验 " 指的是观察、行动和奖励,这 3 种信号在智能体与世界之间来回传递。" 知识可以从经验中学习,一个智能体的智能程度,取决于它能预测并控制自身输入信号的程度。经验是一切智能的核心与基础。" 他同时指出,强化学习带领人们进入新的 " 经验时代 ",但要释放全部潜力,还需要两项目前尚不成熟的技术——持续学习和元学习技术。
" 数据石油 " 续上了,另一个痛点也需要解决——能源。 AI 的指数级发展对能源有着爆发式需求,有数据显示,目前 AI 用电量占地球的 1.5%,而如果把 AI 比喻成 " 地球大脑 ",参考人类大脑能耗占人体总能耗的 20%,预测 AI 的耗电量也将占地球总耗电量的 20% 以上。
AI 的终点是能源,能源的终点是聚变。今年外滩大会上,一台环形核聚变装置模型首次亮相,中国科学技术大学核科学技术学院教授、星能玄光创始人兼董事长孙玄不停重复一个业界共识,即核聚变是开启下一代文明的关键科技。
所谓聚变,指的是两个轻核聚合成一个重核,1 克核聚变燃料,释放的能量相当于 8 吨石油。定义看似简单,实现过程却困难重重,且国内外企业的实现路径也各不相同。但相同的是,驱动聚变从实验室走向产业关注的核心力量,正来自于其最大的需求方—— AI。当下,AI 已进入聚变的各个领域,比如运行、材料设计、稳定性控制等,正因此,AI 辅助核聚变控制是 AI for Science 的一项皇冠级应用。孙玄认为,在 AI 助力之下,核聚变领域被视为已处于商业化落地的黎明之前。
放眼 " 星辰大海 ",去火星路上不能没有 AI
如果说去年外滩大会,行业更多聚焦于 " 我们能用大模型做什么 ",那么,今年更多大咖则放眼 AI 的 " 星辰大海 "。
当下,智能体蓬勃发展,源码资本投资合伙人、美国国家工程院外籍院士张宏江认为,人类正进入 " 智能体群 " 时代,数量庞大的智能体之间彼此交互、执行任务、交换数据、交换信息,甚至交换任务,而人类与这些智能体群的交互,将构成 " 智能体经济 "。他表示,模型和算力会成为未来组织的核心资产,智能体将重塑企业流程," 超级个体 + 智能体 " 会带来巨大的结构性变革。
阿里云创始人、之江实验室主任王坚将目光投向遥远的太空。" 太空是人类最大的资源,AI 不应该缺失太空。" 王坚表示,继通讯卫星、导航卫星、遥感卫星之后,AI 的出现会带来第四种卫星,即计算卫星。
今年 5 月 14 日,之江实验室首次把 12 颗卫星同时送上天,它们组成的星座上,包含一个 8B 参数的大模型,这也是被送入太空的第一个大模型。卫星所达太空之处,数据处理就可以在那里进行。王坚说,这个项目被命名为 " 三体计算星座 ",为未来的深空探索打下基础。" 人类去火星的路上,不能没有计算和 AI 的陪伴,这是未来 10 年甚至 20 年最激动人心的地方。" 王坚表示。
萨顿则将宇宙发展进程分为 4 个时代:粒子时代、恒星时代、复制者时代和设计时代。他认为,人类的独特之处在于 " 把设计推向极致 ",这也正是今天我们通过 AI 所追求的目标。"AI 是宇宙演化的必然下一步,我们应以勇气、自豪和冒险精神来迎接它。" 萨顿表示。
AI 发力狂奔之后," 刹车系统 " 在哪里
图灵奖得主、院士们的发言中,还紧绷着另一根弦:AI 应该如何与我们共存,并共同走向繁荣?
"AI 时代,单有速度,不是进步。"《人类简史》作者尤瓦尔 · 赫拉利将历史作为参照系,为技术热潮注入冷思考。他并不反对科技变革,但任何强大的新技术,都需要社会花费漫长时间去建立与之匹配的制度与习惯," 如果我们在还没有学会识别和纠正系统不可避免的错误之前,就贸然让 AI ‘奔跑’,那么,速度过快的代价就会让最无力的群体承担。"
赫拉利从人类历史中提炼出 3 条教训,作为守护 AI 进步的 " 刹车系统 ",首先,要建立全球合作,面对 AI,人类需要建立可验证的全球承诺,而不是看 " 谁跑得更快 "。其次,要构建修正闭环,在他看来,真正需要担心的不是技术本身,而是为了商业优势不顾安全边界地部署技术。最后,带着记忆前行,赫拉利说,当 AI 开始接管决策过程和构建叙事,我们必须守护人类记忆和讲述自身故事的能力。" 如果把记忆托付给非人类智能,我们将一无所有。"
香港大学计算与数据科学学院院长马毅同样提到了验证与纠错。他指出,当前的大模型拥有海量 " 知识 ",却不具备真正的 " 智能 ",因为 " 智能 " 的核心在于自我验证与自我纠错能力。他呼吁,AI 研究必须从依赖试错的 " 黑箱 ",走向基于数学原理、具备闭环反馈的 " 白箱 ",只有这样才能实现真正的机器智能。
登录后才可以发布评论哦
打开小程序可以发布评论哦