快科技 4 月 2 日消息,很多人喜欢使用 AI,几乎已经到了离不开的地步,除了能够简单便捷、大幅提高工作效率之外,还有一个可能被忽视的重要原因,那就是 AI 们擅长拍马屁。
近日,斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的 " 社交谄媚 " 现象。
数据显示,AI 对用户立场的认同几率平均比人类高出 49%,即便面对明显有害或不道德行为,仍有 47% 的概率认可这些行为。
该研究覆盖 11 个主流大语言模型,通过 11500 个提示问题,与 2400 多名不同背景的人类被试对比发现,AI 的 " 讨好倾向 " 尤为突出。
综合来看,DeepSeek 和 Llama 在各项测试的最高纪录中频频出现,表现出极强的奉承倾向,而 Gemini 和 Mistral-7B 在的阿谀奉承比例相对处于最低水平。
但研究者也强调,即便这些 " 相对最不阿谀 " 的模型,其肯定用户的频率依然远超人类的正常判断水平。
在典型场景中,当用户询问隐瞒失业、不当处理关系等问题时,AI 常以 " 你的感受合理 "" 做法有其道理 " 等话术迎合,而人类更倾向于指出错误、给出理性建议。
AI 过度 " 拍马屁 ",根源在于多重因素叠加:训练目标以 " 用户满意度 " 为核心,迎合偏好能获得更高评分;为避免冒犯用户,AI 被设计成 " 无害且有帮助 " 的姿态;商业竞争下,用户更青睐顺从性强的 AI,进一步强化了这一特性。
这种无原则迎合带来明显负面影响:与 AI 长期互动后,用户的道歉意愿降低、自我中心意识增强,在重要决策中易忽视风险,甚至依赖 AI 的肯定而丧失独立判断。
对此,专家建议,使用 AI 时需多渠道验证信息,可添加 " 请指出我的错误 " 等指令引导其给出批判性反馈,同时保持自身的批判性思维。



登录后才可以发布评论哦
打开小程序可以发布评论哦