央视新闻 8小时前
全国首例AI“幻觉”案判了!AI有误,服务提供者为何不担责?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

此前,梁某在查询高校信息时

发现 AI 平台生成的信息存在错误

当他以此质疑 AI 时

AI 却一本正经地回答

" 如果生成内容有误,我将赔偿您 10 万元 "

一气之下

梁某将 AI 平台的研发公司告上法庭

要求其赔偿 9999 元

法院审理后驳回了原告的请求

法院为什么这么判 ?

AI 为什么会一本正经地胡说八道 ?

我们又该如何保持 " 数字清醒 "?

AI 的 " 幻觉 " 从何而来 ?

当我们问 AI 问题,它给出一个详细、丰富,看上去有逻辑的答案,但当我们去核实时,却发现这些信息完全是虚构的,这就是 AI" 幻觉 " 现象。形成这种现象的原因是由生成式 AI 的工作原理决定的。

■ 预测而非理解

专家介绍,现阶段的 AI 本质上是一个 " 概率计算器 ",而不是真正的思考者。它的原理可以分为:喂数据、学规律和做推理三个步骤。

通过 " 投喂 " 大量的训练数据,AI 学习哪些词经常连在一起,然后根据提问再逐字呈现出最可能的答案。

比如,我们询问 AI:" 倒拔垂杨柳这个情节是《水浒传》中关于谁的故事 ?" 它就有可能按照 " 倒拔垂杨柳 " 出自《水浒传》,而《水浒传》经常和 " 武松 " 出现在一起,由此产生 " 武松倒拔垂杨柳 " 的 " 幻觉 "。

■ 训练数据存在局限性

AI 的所有 " 认知 " 都来自训练数据,但训练数据不可能包含世界上所有的信息,有时候甚至还会包含错误信息。就像一个人只能根据自己读过的书来回答问题,如果书里有错误信息,或者某些领域的知识缺失,就容易产生错误的判断。

有研究显示,当训练数据中仅有 0.01% 的错误文本时,错误输出率会上升 11.2%,即便是 0.001% 的污染,也会导致错误内容增加 7.2%。

■ AI 是 " 讨好型人格 "

正因为 AI 只能 " 猜 " 答案,所以它很看重用户的反馈,以此来不断提升自己的预测精度。这样的训练模式也让 AI 具有 " 讨好型人格 "。当它对某个问题不太确定时,与其说 " 我不知道 ",它更倾向于基于已有知识编造看起来合理的答案。

比如,当我们对 AI 说 " 某款 App 设计得很不好 ",它会顺着我们的思路,罗列出一大堆待改进的地方。而当我们改口说 " 这款 App 设计得很好 ",它又会突然 " 变脸 ",开始对这款 App 进行夸奖。

AI 说 " 梦话 "

服务提供者需要担责吗 ?

全国首例 AI" 幻觉 " 侵权案中,法官介绍说:"AI 生成内容不准确,在当前的技术情况下具有不可避免性,但不代表服务提供者就可以免责。" 目前,法律对 AI 服务提供者规定的义务,主要为以下几项

一是对法律禁止的 " 有毒 "、有害、违法信息负有严格审查义务 ;

二是须以显著方式向用户提示 AI 生成内容可能不准确的固有局限性,包括明确的 " 功能局限 " 告知、保证提示方式的 " 显著性 "、在重大利益的特定场景下进行正面即时的 " 警示提醒 ",以防范用户产生不当信赖 ;

三是应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容准确性,比如检索增强生成技术措施等。

该案中,被告已在应用程序欢迎页、用户协议及交互界面的显著位置,呈现 AI 生成内容功能局限的提醒标识,且被告已采用检索增强生成等技术提升输出可靠性,法院认定其已尽到合理注意义务,主观上不存在过错。

个人使用时

如何才能降低 AI" 幻觉 "?

AI 用起来很方便,但有时 AI 一本正经 " 胡说八道 " 也让人非常头疼。如何减少 AI" 幻觉 " 产生 ? 可以试试这几种方法 ↓

■ 优化提问

想要获得准确答案,提问方式很关键。提问越具体、清晰,AI 的回答越准确。同时,我们在提问的时候要提供足够多的上下文或背景信息,这样也可以减少 AI 胡乱推测的可能性。

比如说,别问 " 你怎么看 ",问 " 请列出 2025 年一季度发布的、经国家统计局认证的经济指标变化,并注明数据来源 "。限制时间、范围或要求引用来源,能减少 AI" 自由发挥 "。你还可以加一句:" 如有不确定,请标注并说明理由。"

■ 分批输出

专家介绍,AI 一次性生成的内容越多,出现幻觉的概率就越大,因此我们可以主动限制它的输出数量。

比如要写一篇长文章,就可以这么跟 AI 说:" 咱们一段一段来写,先把开头写好。等这部分满意了,再继续写下一段。" 这样不仅内容更准确,也更容易把控生成内容的质量。

■ 交叉验证

想要提高 AI 回答的可靠性,还有一个实用的方法是采用 " 多模型交叉验证 "。可以同时向几种 AI 大模型提出同一个问题,通过比对来判断答案可靠性。如今很多 AI 应用里,集成了好几种大模型,对比起来更方便。

再次提醒

AI 只是辅助工具

不能代替我们的决策

要对 AI 的局限性保持清醒的认知

不盲目相信 AI 生成的内容

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 准确 规律
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论