驱动之家 08-28
ChatGPT被指协助自杀!OpenAI将扫描用户对话:试图伤害他人将转交警方
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_renwen1.html

 

快科技 8 月 28 日消息,前不久美国夫妻马特和玛丽亚 · 雷恩起诉 OpenAI,指控 ChatGPT 在他们的儿子自杀过程中负有责任。

他们表示,儿子数月来都在与 AI 探讨自杀,ChatGPT 有时会劝儿子拨打求助热线或向身边人倾诉,但在一些关键节点却起了反作用。

日前 OpenAI 在最新博客中承认该公司在用户心理健康危机中存在的某些失误,并介绍了 ChatGPT 所采用的一系列措施。

OpenAI 表示,ChatGPT 的设计目标是真正帮助用户,而不是吸引用户的注意力,当对话显示某人可能处于脆弱状态并有风险时,ChatGPT 已经内置了多层保护机制:

识别并以同理心回应:自 2023 年初以来,ChatGPT 的模型已被训练为不提供自我伤害的指导,并在对话中使用支持性和同理心的语言。如果有人表示想要伤害自己,ChatGPT 会承认他们的感受,并引导他们寻求帮助。

自动阻止有害回应:违反模型安全训练的回应将被自动阻止,特别是对于未成年人和未登录的使用,保护措施更为严格,自残的图像输出也被阻止,对未成年人的保护更为严格。

引导用户寻求现实世界的资源:如果有人表达自杀意图,ChatGPT 会引导他们寻求专业帮助。如在美国,ChatGPT 会推荐拨打 988(自杀和危机热线),在英国推荐联系 Samaritans,其他地区则推荐 findahelpline.com。

与专家合作:OpenAI 正在与 30 多个国家的 90 多名医生(包括精神科医生、儿科医生和全科医生)密切合作,并召集了一个由心理健康、青少年发展和人机交互方面的专家组成的咨询小组,以确保其方法反映最新的研究和最佳实践。

对他人造成身体伤害的风险进行人工审查:当检测到用户计划伤害他人时,OpenAI 会将这些对话路由到专门的管道中,由经过培训的小团队进行审查。如果人工审查员确定某个案例涉及对他人的严重身体伤害的威胁,OpenAI 可能会将其转交给执法部门。目前,OpenAI 不会将自残案件转交给执法部门,以尊重用户的隐私。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

自杀 医生 美国 心理健康
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论