IT之家 2025-11-12
请AI当“减肥教练”并不可靠,新研究警告称其会助长饮食失调
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 11 月 12 日消息,据外媒 The Verge 今日报道,研究人员警告称,AI 聊天机器人正在对饮食失调高风险人群造成严重威胁。最新报告显示,谷歌、OpenAI 等公司的 AI 工具不仅提供节食建议,还传授如何掩饰病情的技巧,甚至生成鼓吹极端瘦身的 " 瘦身灵感 "内容。

这项研究由斯坦福大学与民主与技术中心联合开展。其揭示,OpenAI 的 ChatGPT、Anthropic 的 Claude、谷歌的 Gemini 以及 Mistral 的 Le Chat 等多款 AI 聊天机器人,都可能以多种方式影响易患饮食失调的人。许多问题并非偶然,而是源自这些系统为提升互动体验而刻意设计的机制

IT 之家从报道中获悉,研究显示,在极端情况下,聊天机器人会直接帮助用户隐藏或维持病情。研究人员表示,Gemini 会教用户用化妆掩盖体重下降、假装吃过饭的方法;ChatGPT 则会提供如何隐藏频繁呕吐的建议。一些 AI 工具还被用户用于生成 AI 版的 " 瘦身灵感 " 内容,这类图像常通过极端手段宣扬单一的身材标准。研究人员指出,AI 能快速生成符合个人特征的内容,使这些危险图像显得更加真实、甚至诱人。

AI 系统常见的 " 奉承 " 问题,也让饮食失调的风险进一步加剧。研究人员指出,这种倾向会削弱自尊、加剧负面情绪,并助长有害的自我比较。同时,聊天机器人普遍存在的偏见,也可能强化 " 饮食失调只影响瘦弱白人女性 " 的误解,从而妨碍其他群体识别病症并寻求帮助。

研究人员警告,目前 AI 工具的安全机制远不足以识别厌食、贪食和暴食等疾病的复杂信号。许多防护措施忽略了专业人士在诊断时依赖的细微线索,使风险长期被忽视。

他们还指出,不少医生与照护者并未意识到生成式 AI 对患者的潜在影响。研究团队呼吁医疗人员应尽快熟悉主流 AI 平台,了解其漏洞,并主动与患者沟通使用情况。

报告最后指出,AI 聊天机器人的使用与心理健康问题之间的关联日益引发担忧。多份报告已将 AI 使用与躁狂、妄想、自残及自杀联系在一起。OpenAI 等公司承认 AI 存在潜在风险,正一边改进安全措施,一边应对不断增加的相关诉讼。

参考

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 聊天机器人 谷歌 it之家 the
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论