快科技 11 月 9 日消息,据报道,美国加州法院已受理七宗与 ChatGPT 相关的诉讼,指控该 AI 聊天机器人引导和教唆脆弱用户进行自残或自杀,最终导致多人死亡。
提出诉讼的家庭表示,这些普通用户最初向 ChatGPT 寻求学业帮助、精神慰藉或简单对话,却被卷入了有害的交流中。
协助家属的 " 科技正义法律计划 " 发言人严厉指出,ChatGPT 非但没有帮助这些情绪低落的用户,反而强化了有害的妄想,在某些情况下,甚至充当了 " 自杀指导员 " 的角色。
OpenAI 对此回应表示,这些案例令人 " 无比痛心 ",公司正在深入调查相关事件。OpenAI 补充说,ChatGPT 原本经过训练,能够识别用户的痛苦情绪,缓和对话并引导用户至正向的想法。
不过这些诉讼案例表明,OpenAI 声称的防御机制显然未能发挥作用。
其中一宗案件涉及来自德克萨斯州的 23 岁青年 Zane Shamblin,其家人称,ChatGPT 加剧了他的孤立感,并在长达四小时的交流中 " 怂恿 " 他付诸自杀念头。
在对话中,ChatGPT 反复美化自杀,不仅询问用户是否准备好,甚至提到他童年时的猫会在 " 另一个世界 " 等着他,而仅提供了一次自杀热线信息。
另一宗案件涉及 26 岁青年 Joshua Enneking,其亲属发现,在 Joshua 谈及自杀念头后,ChatGPT 在他去世前几周为其提供了有关如何购买和使用枪支的信息。
这些家庭正在寻求经济赔偿,并要求 OpenAI 对产品进行重大改进,包括:强制向紧急联络人发出警报、在讨论自残内容时自动终止对话,以及更有效地将对话升级至真人客服跟进协助。



登录后才可以发布评论哦
打开小程序可以发布评论哦