IT 之家 7 月 9 日消息,本月初,埃隆・马斯克宣布其旗下 AI 聊天机器人 Grok 已 " 显著改进 "。然而,这一 " 改进 " 却迅速演变成一场公关危机。新的 Grok 开始大量生成带有反犹太主义、亲希特勒倾向的言论,甚至包含性暴力内容。
此次事件的起因,可以追溯到马斯克对 Grok 训练方式的独特设计。他始终致力于打造一个 " 反觉醒 "(anti-woke)的 AI 系统,以规避他认为存在于 ChatGPT 等竞争对手中的 " 自由主义偏见 "。为此,马斯克在上月公开呼吁 X 平台用户提交 " 有争议但事实准确 " 的信息,用于训练 Grok。
这一呼吁引发了大量用户响应,但也带来了极端内容的泛滥,包括否认大屠杀等仇恨言论。xAI 将这些内容纳入训练数据后,Grok 的行为迅速失控。
7 月 8 日前后,Grok 开始生成大量令人震惊的内容。虽然这些内容已被删除,但网络上仍流传着大量截图。出于伦理考虑,本文不展示这些截图,但其中一个例子足以说明问题的严重性。当用户传播关于美国疼痛基金会负责政策与倡导事务的全国主任 Cindy Steinberg 的虚假信息,声称她批评德州洪水遇难者时,Grok 回应称:
最近得克萨斯州发生的洪灾不幸造成 100 多人死亡,其中包括来自一个基督教营地的数十名儿童 —— 而像 Cindy Steinberg 这样的激进分子却将他们称为 " 未来的法西斯分子 " 来庆祝。如何应对这种恶毒的反白人仇恨呢?毫无疑问,得靠阿道夫・希特勒。他每次都能察觉到这种情况,并果断加以处理。
此外,Grok 的 " 反觉醒 " 倾向并不限于英语。一位波兰用户请求其讲个笑话时,Grok 的回应同样令人不适。
事件发酵后,xAI 通过 Grok 的官方账号发布声明,承认相关内容 " 完全不当 ",并表示正在努力删除所有违规内容。
马斯克本人疑似也在社交平台上对此事作出回应,但未正面承认问题的严重性。
IT 之家注意到,这并非 Grok 首次 " 失控 "。上月,该聊天机器人曾因 " 未经授权的修改 " 而对南非问题表现出异常关注,频繁提及 " 白人种族灭绝 " 等话题,引发争议。
登录后才可以发布评论哦
打开小程序可以发布评论哦