中关村在线 02-24
诚恳认错坚决不改 为什么AI总扯谎:原因揭开
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

" 很抱歉,我之前的回答有误。"" 感谢您的指正,我会努力改进。"

相信很多人在使用大语言模型时,偶尔发现一些很离谱的错误,纠正 AI 之后,就会获得这种回应。然而,当你再次提问类似问题,它很可能换一种说法,继续给出错误答案。这种 " 诚恳认错,坚决不改 " 的行为,让不少用户哭笑不得。

众所周知,AI 没有欺骗我们的动机,我们所看到的 " 谎言 " 有一个更准确的术语:幻觉。那么,AI 幻觉究竟是怎么产生的?为何即便开发者反复优化,它依然难以彻底根除?今天我们就来通俗地聊聊这个话题。

什么是幻觉?从何而来?

大语言模型的幻觉也分多种类型,一般来讲,指的是语言模型在生成文本时,输出看似合理、实则与事实不符、逻辑矛盾或完全虚构的内容。

例如介绍产品时瞎填参数、编造一本从未出版的书籍及其作者、杜撰从未发布过的虚假新闻等等,这些内容往往语言流畅、结构严谨,但本质上是 " 一本正经地胡说八道 "。

那么,为何大语言模型会产生幻觉呢?

首先,来源数据并不全都正确。当前主流大语言模型通过海量互联网文本、书籍内容进行自监督学习。但这些内容里本身就有很多错误、偏见、重复信息,甚至有人故意编造的假话。

AI 一模仿,就学会了 " 说谎 "。另外,有些专业知识它根本没学过,或者学的是过时的信息,遇到新问题就只能 " 瞎猜 "。有时模型无法判断哪条信息更权威,只能基于概率 " 猜 " 出最像人类会说的话,虚假数据就这么产生了。

其次,大语言模型倾向于预测下一个最可能出现的词。为了生成连贯、自然的文本,它倾向于选择高频、语义平滑的组合,而非核查事实。

例如,当被问 "《三体》的作者是谁?",模型知道 " 刘慈欣 " 是高概率答案;但若问题稍作变形:"《三体Ⅳ》的作者是谁?",尽管该书并不存在,模型仍可能基于 "《三体》+ 作者 = 刘慈欣 " 的强关联,自信地编造出续作信息。

此外,为了让 AI" 更听话 ",开发者会用人工反馈来微调它。但如果要求它回答超出能力范围的问题,它为了 " 表现好 " 反而更容易编造答案。

为何现阶段难以彻底避免?

尽管学术界和工业界已提出多种缓解幻觉的方法,但完全消除幻觉在当前技术框架下几乎不可能。

对于面向一般用户的大语言模型,它们的设计目标是通用对话,而非专业问答。要在任意话题上都保证 100% 准确,需为每个领域构建专用验证系统,这违背了大模型便利的初衷。

如今幻觉形式多样,有些错误显而易见,有些则需专业知识才能识别。目前尚无统一、可扩展的自动评估标准。用户常默认 AI 无所不知,但模型本质是概率引擎。这种认知落差,使得即使低频幻觉也会被放大为 AI 不可信。

总结

虽说幻觉难免,但如果行业放纵其产生,AI 总是挑最好听的话来说,久而久之,人们就可能懒得自己动脑、分不清什么是真什么是假。

更麻烦的是,这些为了讨好用户而编出来的虚假内容,还可能被重新收集进 AI 的训练数据里,结果就是错误信息越喂越多,AI 说得越来越离谱,整个系统陷入恶性循环。

理解大模型幻觉,我们才能更理性地使用 AI,它能充当工作、生活中的灵感助手,而非权威信源。未来幻觉或许能被大幅抑制,但对 AI 的回答保持一分怀疑,才是正确的使用方式。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 刘慈欣 三体 准确 书籍
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论