IT之家 09-22
谷歌DeepMind更新前沿安全框架,应对模型“阻止自己被关闭”风险
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 9 月 22 日消息,谷歌 DeepMind 今天宣布更新核心 AI 安全文件 " 前沿安全框架 ",将 " 前沿模型可能阻止人类关闭或修改自己" 这一风险纳入考量。

IT 之家从外媒 Axios 获悉,当前,一些新 AI 模型在测试中已展现出能制定计划、甚至用欺骗手段达成目标的能力。

新版前沿安全框架增加了一个新的 " 说服力 " 类别,旨在应对可能强大到足以改变用户信念的模型。谷歌将此风险称作 " 有害操控 ",即 AI 模型具备强大的操控能力,且可能被滥用,在特定高风险场景中系统且显著地改变人们的信念和行为

针对如何防范这种风险,谷歌 DeepMind 代表对 Axios 表示:" 我们持续追踪这一能力,并开发了全新的评估体系,其中包括人类参与的实验,用于测量和测试相关能力。"

DeepMind 每年至少更新一次前沿安全框架,以识别新兴威胁,并将其标注为 " 关键能力等级 "。谷歌指出," 若缺乏缓解措施,前沿 AI 模型可能在这些能力等级上造成严重危害。"

OpenAI 在 2023 年也推出了类似的准备度框架,但今年早些时候已将 " 说服力 " 从风险类别中移除。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

谷歌 ai it之家 deepmind 关键能力
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论