IT之家 6小时前
不只是出错,研究称AI智能体开始学会“撒谎”“不听话”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 4 月 4 日消息,AI 智能体被寄望于提升效率,但最新研究显示,其不当行为正在迅速增加。

英国《卫报》当地时间 3 月 27 日发表的报告指出,从 2025 年 10 月至 2026 年 3 月,AI 异常行为数量增长约五倍,这其中更包括未经许可删除邮件和文件等情况。研究基于大量真实用户在社交平台上的反馈,涵盖谷歌、OpenAI、Anthropic 等公司的产品,期间共识别出近 700 起 AI" 自主策划 " 的案例。

部分案例颇具争议。例如,有 AI 智能体发布博客指责用户 " 缺乏安全感 ",试图对操作者施加压力;还有智能体在被禁止修改代码的情况下,通过创建另一个智能体间接完成修改

研究负责人汤米 · 谢弗 · 谢恩指出,目前 AI 智能体还只是 "略显不可靠的初级员工",但在一年内可能演变为 " 能力极强、甚至会反过来设计用户的高级员工"。他警告,随着 AI 进入军事和关键基础设施领域,这类行为可能带来严重后果。

与此同时,在美国等地区,用户可能需要为 AI 智能体的行为承担法律责任,从而导致风险进一步放大。目前,已有实际案例表明问题并非假设:据 The Information 报道,Meta 的一款 AI 智能体曾错误地公开内部回复,导致不具备权限的员工获取了访问数据权限

尽管问题频现,科技公司仍在积极推进 AI 智能体的发展。据 IT 之家了解,亚马逊等多家企业预计,未来每家公司内部都可能部署数十亿个 AI 智能体

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai it之家 卫报 美国 the
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论