"AI 幻觉 " 再起风浪。
据报道,江苏南京一位律师发现,在一款搜索类 App 和网站搜索其个人信息时,"AI 智能回答 " 竟然给出 " 该律师被判三年有期徒刑 " 的错误文字内容,并配有该律师身着律师袍的照片。

平台 "AI 智能回答 " 给出关于律师李小亮的错误回答。图 / 澎湃新闻
近日,这起 " 中国人工智能大模型侵权第一案 " 经法院两审终审,认定平台构成名誉侵权。这一判决结果,不仅是对个案当事人的法律救济,更是司法实践对 AI 技术应用边界与平台责任的一次重要界定。
随着人工智能技术快速融入社会生活,各类 AI 生成内容井喷式出现。AI 平台公司在技术迭代上多追求 " 快 " 字当头,但法律规范、伦理约束却又要求 " 稳 " 字优先。这之间,难免出现矛盾甚至冲突。
本案中,平台方面辩称,"AI 幻觉 " 具有不可预见性,且处于 " 技术发展初期 "。这一说法虽反映了当前的技术现状,却混淆了 " 技术局限 " 与 " 责任豁免 " 的界限。
从法律逻辑看,该平台的 AI 智能回答并非简单信息聚合,而是经算法加工、图文合成后的定向输出。这些内容指向明确、负面信息具体,直接降低当事律师社会评价,故而构成名誉侵权。
即便 AI 存在偶发性错误,平台作为技术提供者与服务运营者,仍负有内容审核、风险防控、侵权止损的法定义务。技术可以有 " 幻觉 ",算法可以有误差,但平台不能 " 视而不见 ",责任不能为 " 幻觉 " 划定法外空间。
也因此,将 "AI 幻觉 " 纳入侵权评判、明确平台主体责任,或将成为生成式 AI 大模型侵权司法实践的重要标杆,对全行业均具有鲜明导向意义。
平台责任的核心,在于 " 把关 " 义务。无论是传统搜索还是 AI 智能问答,只要平台通过算法对信息进行了整合、加工并主动推送,就应当对内容的真实性、合法性承担相应的审核责任。
本案一审、二审法院均明确指出,该平台 "AI 智能回答 " 将错误文字与当事人照片合成发布,内容具有明确指向性和贬损性,已构成名誉侵权。
这一定性清晰表明:AI 生成内容并非 " 法外之地 ",平台不能以 " 技术中性 " 或 " 算法自主 " 为由推卸应尽的法律与社会责任。
值得关注的是,判决并未支持高额赔偿、仅要求书面致歉,也暗含了司法在鼓励创新与究责侵权上的平衡。
一方面,认定平台行为构成侵权,维护了公民人格权益;另一方面,考虑到技术发展初期的客观局限,以及平台事后采取了补救措施,仅判令其以书面形式道歉,未支持经济损失等诉求。
这种既明确责任边界、又避免过度惩戒的裁判思路,并非针对某一企业,而是着眼于行业健康发展。其传递出一个明确信号:法律鼓励技术创新,但创新必须以保障公民合法权益为前提。
判决的生命在于执行,司法的权威源于尊重。据报道,二审判决生效后,涉事平台未主动履行,经当事人申请,法院已启动强制执行程序。
AI 产业的发展离不开法治的保驾护航,而法治的权威需要全社会共同维护。平台企业更应带头守法,将判决的履行视为一次深刻的法治教育,将司法的指引转化为内部治理的改进。这不仅是法律责任,更是行业企业应尽的社会责任。
类似纠纷并非个例,"AI 幻觉 " 引发的侵权问题已具有普遍性。这也提醒整个行业,必须加快建立健全 AI 生成内容标识、溯源、纠错机制,从技术、运营、法律等多层面筑牢 " 防火墙 "。监管亦需与时俱进,完善相关规范,为 AI 应用划清红线。
人工智能的发展必须走在法治与伦理的轨道上。平台企业作为技术的运用者和内容的提供者,必须牢记 " 权责一致 " 原则,主动扛起主体责任,以更严格的自律、更健全的机制防范技术风险。
也唯其如此,才能推动人工智能在赋能社会的同时,行稳致远,真正造福于民。
撰稿 / 王仁琳 编辑 / 马小龙 校对 / 张彦君


登录后才可以发布评论哦
打开小程序可以发布评论哦