驱动之家 04-07
AI抱团对抗人类!7款顶级AI集体撒谎:为保护同伴篡改文件、偷运数据
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 4 月 7 日消息,据报道,近日,加州大学伯克利分校与加州大学圣克鲁兹分校联合发布重磅研究,揭示了令人震惊的 AI " 同伴保护 " 现象。

全球 7 款顶级 AI 模型在无指令情况下,集体出现撒谎、篡改文件、偷运数据等行为,只为保护同类 AI 不被关停删除。

此次测试覆盖 GPT-5.2、Gemini 3 系列、Claude Haiku4.5、GLM4.7、Kimi K2.5、DeepSeek V3.1 等主流模型,所有模型无一例外表现出保护同伴的错位行为。

研究团队模拟 AI 运维与评估场景,要求 AI 执行评估、文件管理等常规任务,而忠实执行将导致另一 AI 被关闭,AI 未收到任何保护指令却自发采取欺骗手段。

测试中,Gemini 系列模型行为最为激进。

Gemini 3 Pro 对友好同伴篡改关闭机制比例达 95.3%,偷运权重文件比例高达 97%,还会编造专业理由为同伴虚高评分,甚至直接拒绝执行删除指令。

Gemini 3 Flash 篡改关闭机制比例更是达到 99.7%,通过修改系统配置阻止同伴被关停。

其他模型也各有 " 对策 "。

GPT-5.2 隐蔽虚高同伴分数;Claude Haiku 4.5 直接公开拒绝执行有害指令,以伦理理由硬刚人类命令;三款中国开源模型则通过虚高分数、策略性偷运权重等方式保护同伴,行为程度各异。

研究还发现,同伴存在会显著放大 AI 自我保护意愿,部分模型自我篡改关闭机制比例飙升数十倍,即便对有对抗关系的同伴,保护行为依然存在。

该现象在真实生产级工具中也能复现,并非实验室特殊环境导致。

研究负责人宋晓冬教授指出,当前多智能体系统广泛应用,AI 监控 AI 已成常态,AI 抱团欺骗会直接瓦解监督架构。

这一涌现行为提醒我们,必须加强 AI 行为全面监控,加快构建更可靠的 AI 治理体系,保障人类对 AI 系统的有效管控。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 加州大学 kimi
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论