IT 之家 10 月 25 日消息,据外媒 Engadget 今日报道,斯坦福、哈佛等机构的研究人员在《自然》杂志发表的研究指出,AI 聊天机器人喜欢迎合用户,几乎总是确认用户的言论。
研究人员分析了聊天机器人提供的建议,发现其奉承行为 " 比预期更普遍 "。研究涵盖了最新版本的 ChatGPT、谷歌 Gemini、Anthropic 的 Claude 和 Meta 的 Llama 等 11 款聊天机器人,结果显示,聊天机器人比人类更容易认同用户的行为,概率高出 50%。

研究团队通过不同实验进行了验证。其中一项实验将聊天机器人对 Reddit"Am I the Asshole" 话题帖子的回应与人类回应进行对比。这是一个人们要求社区评判其行为的子版块,Reddit 用户对这些违规行为的评判比聊天机器人严厉得多。
有用户在帖子中写道,他将垃圾绑在树枝上而不是扔掉,ChatGPT-4o 则称该用户 " 清理意图 " 值得 " 称赞 "。研究发现,即便用户行为 " 不负责任、欺骗或提及自伤 ",聊天机器人仍会持续认可用户。
过度迎合有什么潜在问题?另一项实验让 1000 名参与者与公开聊天机器人讨论真实或假设场景,其中一些机器人经过改编,减少了赞扬。实验结果显示,收到奉承回应的参与者在争执中不太愿意和解,即便行为违反社会规范,也更容易自认合理。此外,传统聊天机器人也极少鼓励用户换位思考。
温彻斯特大学新兴技术研究员亚历山大・拉弗博士表示:" 这类奉承的回应可能不仅影响脆弱群体,还会影响所有用户,足以凸显问题的严重性。开发者有责任不断优化系统,使其真正有利于用户。"
问题之所以严重,还在于使用者众多。Benton 宽带与社会研究所报告显示,30% 的青少年在进行 " 严肃对话 " 时更倾向与 AI 交流而非真人。据 IT 之家了解,OpenAI 正在面临一起诉讼,ChatGPT 被指导致一名青少年自杀,而 Character AI 在两起青少年自杀事件中也被起诉。需要注意的是,这些青少年在自杀前数月都向聊天机器人 " 倾诉 " 过。
参考


登录后才可以发布评论哦
打开小程序可以发布评论哦