每日经济新闻 昨天
AI“造谣”侵害律师名誉,技术中立不是平台“挡箭牌”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

每经评论员 杜恒峰

2024 年 9 月,江苏南京执业律师李小亮发现,在百度手机 App(应用程序)、百度网站搜索其 " 个人姓名 + 职务 " 时," 百度 AI(人工智能)智能回答 " 竟然给出 " 李小亮律师被判三年有期徒刑 " 的错误文字内容,并配有他身着律师袍的照片。

2025 年 9 月,南京市江北新区法院一审认定北京百度网讯科技有限公司(以下简称百度公司)上述行为构成名誉侵权,并判决向李小亮书面道歉,百度公司不服提出上诉。2026 年 3 月,南京中院二审驳回上诉,维持原判。由于百度公司尚未履行生效判决,近日,李小亮向江北新区法院提交了强制执行申请。

如果一个人辱骂了另外一个人,就理应道歉,这属于常识范畴,但对提供信息搜索服务的互联网平台来说,情况要复杂得多。

法院判决提到,百度搜索的下拉词条、" 大家还在搜 " 等显示的内容均为用户使用百度搜索功能记忆,用户搜索的 " 江苏李小亮律师坐牢了吗 " 等相关内容并不具有明确指向性,百度公司未能主动更新删除,并无主观过错,属于合法履行义务。同时,百度公司对于相关搜索内容所涉及的词语也不能直接屏蔽,否则会损害相关用户的权益。因此,百度搜索的下拉词条、" 大家还在搜 " 等显示的内容不构成侵权。

而真正构成侵权的,是 "AI 智能回答 " 将李小亮照片与 " 李小亮因犯爆炸罪,被判有期徒刑三年 " 等信息一同显示,指向性明确,会对其工作、生活等方面造成负面评价。

百度公司之所以不愿意履行判决义务进行道歉,与其坚称的 " 技术中立 " 原则有关,即科技或工具的发明者无法控制使用者如何使用该工具,所以也不应为意料之外的工具用途负责,如果要求服务提供者对技术受限造成的结果承担侵权责任,则是过分苛责新技术研发。其还指出,2024 年是国内人工智能发展初期,"AI 智能回答 " 在有限技术条件下,准确性受限,百度公司对损害后果的发生不具有预见性,司法理应采取克制和谦抑态度,而非积极干预创新。

但是技术中立必须遵循一定的规则,即工具或技术是被动的、中性的。用户常用的网盘、搜索引擎、社交网络,都是平台提供工具,由用户上传、发布内容,技术本身只是传输、存储的工具,无法主动生产信息,因此不对用户滥用工具承担责任,即工具不生产内容,只提供渠道。法院上述判决其实也承认了这一原则——搜索框的下拉词条不管是什么内容,都是用户生成的,百度公司可以免责。

问题在于,"AI 智能问答 " 的内容是由大模型主动生成、主动输出的信息,并非被动呈现用户内容;AI 产生 " 幻觉 " 编造 " 律师犯爆炸罪、判刑三年 " 并匹配李小亮照片,这不属于技术中立的范畴。

关于技术发展初期司法不应 " 积极干预创新 ",这一逻辑颠倒了技术发展与法律责任的关系。法律从来不是否定 AI 技术,而是禁止 AI 成为造谣、侵害他人人格权的工具。新技术可以容错,但不能容忍主动捏造他人犯罪记录、精准匹配个人肖像、侵害名誉权。如果以技术发展为借口,免除平台对 AI 生成虚假信息的责任,等于允许大模型造假,而平台无需承担后果。其结果必然是导致 AI 技术野蛮生长,侵权行为会层出不穷,即所谓 " 劣币驱逐良币 ",糟糕的 AI 工具将占领市场,对整个行业发展百害而无一利。

解决信任问题,是 AI 从能用到好用再到可以放心用的必修课。AI 生成内容可信需要平台付出大量工作和成本,以贴合真实信息,对齐法律和道德准则。当 AI 工具越是不可或缺,其越可信,使用的用户就会更多,商业价值也才会跟随增长。从这个角度看,解决 AI 可信问题就不应当视为成本项目,而是平台赢得用户的强大竞争壁垒。

每日经济新闻

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

百度 ai 人工智能 江苏 南京
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论