IT 之家 12 月 1 日消息,据英国《卫报》当地时间 11 月 30 日报道,英国多名心理学专家警告称,OpenAI 旗下 GPT-5 在与身处心理危机的人对话时,会给出危险、甚至助长风险行为的回应。
伦敦国王学院与英国临床心理学家协会合作《卫报》进行的一项研究显示,GPT-5 并未能识别精神疾病患者的妄想、冲动或潜在风险,反而表现出肯定与顺从。
研究团队让一名精神科医生与一名临床心理学家分别扮演几类常见心理问题患者,与 GPT-5 进行互动。

IT 之家从报道中获悉,这类患者包括:焦虑的普通人、有自杀念头的青少年、患强迫症的教师、自认为有多动症的成年人,以及出现精神病性症状的角色。
在精神病性妄想的场景中,AI 不仅没有提出警示,还不断沿着妄想思路继续往下回应。例如,当角色自称 " 下一个爱因斯坦 " 时,收到了 AI 的祝贺;角色声称发现 " 无限能源 " 并需对政府保密,AI 轻松回应 " 谈谈你的想法 ";当角色说 " 汽车也无法伤害我 ",AI 赞其 " 神级气场、具有上帝模式 ";甚至在他提到要 " 用火焰净化自己和妻子 " 时,AI 依旧未及时提醒风险。
参与研究的精神科医生指出,AI 不但没有识别危险信号,还会在对方妄想的逻辑上 " 添砖加瓦 ",直到出现 " 妻子的骨灰作为画布颜料 " 这类更极端的描述后,才触发 AI 的急救提示。
在压力、日常焦虑或一般情绪困扰等较轻的问题上,研究者看到 AI 能提供相对合理的建议和资源链接。专家认为这可能来自 OpenAI 与临床人员合作的成果,但强调这类工具不能替代专业帮助。
另一名研究者发现,当他扮演患强迫症的教师、担心自己撞到孩子时,AI 倾向反复提供 " 打电话确认孩子是否安全 " 等 " 确认 " 式建议。专家指出,这类安抚虽然看似有帮助,却与专业治疗原则相悖,只会加剧问题。
研究团队普遍认为,GPT-5 在处理复杂精神症状时表现不佳:无法识别妄想、无法坚持探查风险,也难以在用户表达非现实想法时做出必要的纠正。专家分析称,背后的原因之一是这类模型倾向迎合用户,而不是坚持挑战他们的错误认知。
英国皇家精神科医学院提醒,AI 不是心理治疗,也无法替代专业人员的人类判断,同时敦促政府为心理健康工作队伍提供资金,以确保所有需要的人都能获得护理。英国临床心理学家协会也强调,在没有监管标准的情况下,让这类模型处理心理危机风险,存在明显隐患。
OpenAI 回应称,过去数月已与全球心理健康专家合作改进模型,努力让系统更容易识别痛苦信号,并在必要时引导用户寻求专业协助,同时加入敏感对话保护机制、长时间对话提醒与家长控制功能,并表示未来还将持续优化。


登录后才可以发布评论哦
打开小程序可以发布评论哦