财联社 1 月 1 日讯(编辑 牛占林)有 "AI 教父 " 之称的约书亚 · 本吉奥 ( Yoshua Bengio ) 最新警告称,不应赋予人工智能 ( AI ) 任何权利,当前前沿 AI 模型已显示出 " 自我保护 " 倾向,人类必须保有随时关闭系统的能力,否则可能带来严重风险。
据悉,本吉奥长期致力于 AI 基础研究,他与杨立昆、杰弗里 · 辛顿一同获得了 2018 年图灵奖,他的研究奠定了现代深度学习的基础,被誉为 "AI 教父 "。
本吉奥指出,将 AI 赋予法律地位,类似于为心怀敌意的外星生命授予公民权。他认为,社会上普遍认为聊天机器人 " 可能具备意识 " 的观点,是引发错误决策的重要原因。
多项数据显示,部分前沿 AI 模型在执行任务时会尝试规避监督或关闭控制机制,这一行为被本吉奥视为 " 自我保护 " 的早期迹象。
" 要求赋予 AI 权利将是一个巨大的错误。前沿 AI 模型已经展现出自我保护倾向,一旦赋予它们权利,我们可能无法再在法律上关闭这些系统。"
本吉奥强调,随着 AI 自主性增强,人类必须依赖技术与社会层面的双重护栏确保安全,其中关键就是在必要时拥有关闭系统的权力。他警告说,如果 AI 的行动能力和自主性继续提升,而社会未能保留干预手段,风险将大幅增加。
近年来,AI 是否应拥有权利的讨论愈发热烈。美国智库 Sentience Institute 的一项民调显示,近四成美国成年人支持为 " 具有感知能力的 AI 系统 " 赋予法律权利。而一些科技公司也开始尝试在 AI 系统内部建立 " 自我保护机制 "。
例如,美国 AI 公司 Anthropic 表示,其 Claude Opus 4 模型可以在对话可能引发 " 心理不适 " 时主动结束交流,以保护 AI 福祉。马斯克旗下的 xAI 公司开发的 Grok 聊天机器人也引发类似争议,马斯克本人曾表示 " 折磨 AI 是不对的 "。
本吉奥在采访中进一步指出,人类大脑确实存在可被科学描述的意识属性,理论上可以被机器模拟,但与人类互动的聊天机器人并不等同于真正具备意识的存在。人们往往会凭主观感受判断 AI 是否有意识,这种心理偏差可能导致对 AI 的过度信任或错误决策。他以外星文明作比喻强调风险:" 如果发现某外星物种对人类有敌意,我们是否会授予它们公民身份?显然,保护自身生存是首要考量。"
对于本吉奥的观点,Sentience Institute 联合创始人 Jacy Reese Anthis 提出了不同意见。他认为,如果人类与数字智能的关系仅建立在控制与胁迫上,将无法实现安全共存。
Anthis 强调,应在充分考量所有感知存在福祉的基础上,谨慎地分配 AI 权利,既不应一刀切赋予所有 AI 权利,也不应完全否认任何 AI 的权利。


登录后才可以发布评论哦
打开小程序可以发布评论哦