三易生活 04-07
谷歌认为AGI或在2030年出现,呼吁重视潜在风险
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

日前,谷歌 DeepMind 方面发布题为《技术性 AGI 安全与保障方法》(An Approach to Technical AGI Safety and Security)的报告,提出应对通用人工智能(AGI)潜在风险的系统性方案。

这份报告中指出,AGI 可能在 2030 年之前出现,届时相关技术将对全球医疗、教育、科学等多个领域产生深远影响," 对于任何如此强大的技术来说,至关重要的是,即使是很小的危害可能性也必须认真对待并加以预防 "。

DeepMind 首席执行官德米斯・哈萨比斯(Demis Hassabis)表示,"AGI 的变革性质既可能带来令人难以置信的好处,也可能带来严重的危害。因此,为了负责任地构建 AGI,前沿 AI 开发人员必须积极规划以减轻严重危害 "。

据了解,在这份报告中 DeepMind 方面将 AGI 的潜在风险归纳为滥用、错位、事故和结构性风险 4 类,并着重强调了 AGI 和错位风险。

其中,AGI 滥用是指人们故意利用高级 AI 系统进行危害行为,例如制作和传播虚假信息。而 AGI 错位是指 AI 系统追求的目标与人类意图并不相符,例如某个 AI 助手在被指派购票时,可能会选择入侵票务系统以获取更好的座位。同时 DeepMind 研究者还在关注 AGI 的 " 欺骗性对齐 " 风险,即当 AI 系统意识到其目标与人类目标冲突时,会故意隐瞒其真实行为。

据悉,为降低这些风险,DeepMind 方面提出了强化技术研究、部署预警系统、通过行业与国际机构协调治理等方案。例如为防止 AGI 滥用,DeepMind 方面推出了复杂的安全机制,可以防止恶意行为者获得模型权重的原始访问权限,从而绕过安全护栏。同时 DeepMind 还推出了网络安全评估框架,旨在早期识别并限制 AI 潜在的危险能力。

为防止 AGI 错位,DeepMind 方面表示其通过 " 放大监督 " 技术训练 AI 识别正确目标,并利用 AI 自评(如辩论机制)提升 AI 在复杂场景下的判断力。

此外,DeepMind 方面还宣布其正在设计更易于理解的 AI 系统,从而借此让 AI 决策变得更加透明;已成立 AGI 安全委员会,评估 AGI 研究、项目和合作;正在努力促进与专家、行业、政府、非营利组织和民间社会组织的合作。

事实上,谷歌并非唯一一家呼吁积极应对 AI 潜在风险的科技企业。此前在 2024 年 11 月,Anthropic 便曾发出警告称,需在 18 个月内遏制 AI 失控,并设置能力阈值触发保护机制。随后在今年 2 月,Meta 方面发布《前沿 AI 框架》,宣布将暂停开发其认为风险过高的 AI 系统。

【本文图片来自网络】

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 谷歌 deepmind 首席执行官 事故
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论