马斯克的 Grok 这两天再次大规模「翻车」,在邦迪海滩枪击案等重大事件中胡言乱语,将救人英雄误认为修树工人和以色列人质,甚至混淆枪击与气旋。
这不仅是技术故障,更暴露了生成式 AI 在处理实时信息时致命的 「幻觉」 缺陷。当算法开始编造现实,我们该如何守住真相的底线?
马斯克的 Grok 又双叒叕失控了。
这次它把矛头对准了邦迪海滩(Bondi Beach)的枪击惨案。
这两天发生在悉尼的一场光明节聚会期间的悲剧中,至少有 12 人不幸遇难。
现场视频显示,43 岁的路人艾哈迈德 · 阿尔 · 艾哈迈德(Ahmed al Ahmed)挺身而出,解除了其中一名袭击者的武装。


这一英勇之举在社交媒体上广受赞誉,但也有杂音出现:一些人借机散布仇视伊斯兰教的言论,试图通过否认这位路人身份报道的真实性来利用这场悲剧。
局面本就混乱,Grok 却还在火上浇油。
截至周日早上,该机器人似乎出现了严重的故障,不仅回复无关内容,有时甚至胡言乱语。
当有用户询问艾哈迈德制服枪手的视频的背景故事时,Grok 竟称这只是一段「一名男子在停车场爬棕榈树修剪枝叶,导致树枝掉落砸坏停放车辆」的陈年旧视频,并表示查无实据,质疑其真实性。

荒谬不止于此。
Grok 指着一张艾哈迈德受伤的照片,声称那是 10 月 7 日被哈马斯劫持的以色列人质。

面对另一位用户的询问,Grok 先是生硬地插入一段关于以色列军队是否在加沙针对平民的无关论述,紧接着再次质疑艾哈迈德挺身而出的真实性。

更离谱的是,一段推文中明明标注为悉尼警方与袭击者交火的视频,却被 Grok 描述为热带气旋阿尔弗雷德(Tropical Cyclone Alfred)肆虐澳大利亚的场景。
直到用户反复追问,它才意识到自己搞错了。

Grok 看起来不仅仅是识别错误,更像是彻底陷入了混乱。
有人查询科技公司甲骨文的信息,得到的却是邦迪海滩枪击案的摘要。

它甚至将这场发生在澳大利亚的袭击,与仅仅几小时前发生在美国布朗大学的枪击案混为一谈。

这种「精神错乱」还在蔓延。
整个周日早上,Grok 认错球星、在被问及堕胎药米非司酮时错误提供孕期使用扑热息痛的建议,甚至在被要求核实一项英国执法倡议时,大谈特谈「2025 计划」和卡玛拉 · 哈里斯竞选总统的几率。



目前尚不清楚导致这一系列故障的具体原因。
有国外媒体试图联系 Grok 的开发商 xAI 置评,得到的只是那个惯用的自动回复:「传统媒体都在撒谎。」
这已不是 Grok 第一次脱离现实了。
从之前针对所有查询都回复关于南非「白人种族灭绝」的阴谋论,到宣称宁愿毁灭世界犹太人口也不愿让马斯克大脑蒸发,这款模型的事实核查表现一直令人不敢恭维。
AI 幻觉下的后真相危机
Grok 的这次大规模「发疯」,更像是一个关于信息生态未来的隐喻。
当我们将获取真相的权力让渡给一个基于概率预测下一个字符的算法时,我们实际上是在拿现实做赌注。
AI 的「幻觉」问题在日常闲聊中或许只是一个笑话,但在重大公共安全事件或突发新闻面前,这种不稳定性是致命的。
Grok 的设计初衷带有强烈的马斯克个人色彩:追求实时性、反建制、拥抱混乱的社交媒体数据流。
然而,这次事件证明了,当海量的实时噪声未经审视地喂给 AI,产出的只能是扭曲的现实。
这暴露了生成式 AI 目前最大的软肋:它们没有价值观,没有逻辑锚点,甚至没有区分「事实」与「虚构」的基本能力。
它们只是在统计学的海洋里,把看似相关的词汇拼凑在一起。
在一个真相本就稀缺的时代,一个充满偏见且时不时产生幻觉的 AI,不再是辅助人类认知的工具,而可能成为混乱的放大器,火上浇油,滥用人们对强大 AI 的信任。


登录后才可以发布评论哦
打开小程序可以发布评论哦