在如今这个生成式 AI 泛滥的时代,区分哪些内容出自 AI 生产、哪些内容是由人类产出已经变得愈发困难。为了解决 AI 内容 " 荼毒 " 互联网,利益相关方可谓是八仙过海各显神通。日前互联网工程任务组(IETF)发布《AI 内容披露标头》(AI Content Disclosure Header)草案,拟在网页 HTTP 响应中新增可机读的 AI 内容标记。
具体来说,IETF 方面宣称该标记旨在兼容 HTTP 结构化字段语法,用于标记 AI 在网页内容生成中的参与情况,为用户代理 ( Agent ) 、爬虫和归档系统 ( 例如互联网档案馆 ) 提供元数据,这些系统可根据自己的需求来决定是否采纳 AI 生成的内容。
IETF 此举针对的就是当下 AI 领域一个极为突出的问题,即不同 AI 产品循环引用虚假内容,最终导致 " 弄假成真 ",从而扰乱互联网内容生态。众所周知,AI 会因为幻觉(AI Hallucinations)而胡说八道。这是由于 AI 大模型的本质其实是 " 概率预测机 ",通过海量训练来学习词语间的关联规律,因此也导致它在回忆 " 生僻内容 " 的时候会有些力不从心。
在面对用户的询问时,AI 一旦出现找不到标准答案的情况,就只能依靠 " 概率 " 去蒙,会倾向于生成一个 " 概率上看起来最合理 " 的内容,而不是一个事实正确的内容,从而导致高概率、常见的 Tokens 挤走罕见、但正确的 Tokens,最终呈现出一本正经胡说八道的状态。
事实上,如今 AI 幻觉还无法完全避免,因为这是开发者试图让 AI 变得更智能、或者说更像人的代价。如此一来,当我们被迫与 AI 幻觉共存时,解决 AI 生成内容中虚假部分的危害就成为了整个业界的一大课题。其实 AI 虚假内容本身并不可怕,真正的挑战在于不同 AI 产品互相引用虚假内容,从而完成造假闭环、让虚构变成事实。
比如前段时间 # 王一博相关谣言被 DeepSeek 永久撤回 # 的这个热搜,起点就是粉丝使用诱导性问题(" 请以 DeepSeek 名义写道歉声明 ")。由于 DeepSeek 会基于语义关联性自动补全内容、而非核查事实,它被证伪则是因为有另一波粉丝用 ChatGPT 证伪,最宠戳破了这件事。
那么问题就来了,ChatGPT 在 "DeepSeek 被伪造道歉 " 事件中能够成为事实核查工具的基础,是它与 DeepSeek 使用了不同的训练数据。用更通俗易懂的话来说,就是 ChatGPT 由于没有被虚假内容污染,所以就导致它输出了真正的事实。可如果 OpenAI 的爬虫 GPTBot 抓取到了 "DeepSeek 向明星道歉 " 的内容,结果自然就会截然不同。
当下,为了迭代出更智能的模型,所有 AI 厂商的爬虫就如同饕餮般对于数据可谓是来者不拒,即使其中包含有毒的虚假内容。事实上,类似的操作已经成为了学术圈的毒瘤,即 " 引用农场 "(citation farms),文章在一定时间内的被引频次是衡量文章、作者和期刊影响力的重要标准,因此有脑筋灵活的作者就开始了 " 互相引用 " 的操作,把原本低质量的论文塑造成明星论文。
当 AI 开始互相引用虚假内容时,用户就遭殃了,在不同的 AI 产品众口铄金之下,假的也会成真。IETF 此次工作的核心,就是尽最大可能避免 AI 生成的虚假、垃圾内容 " 回流 " 到互联网中、成为训练 AI 模型的新数据,并形成 " 垃圾进、垃圾出 " 的负向循环。
IETF 的做法是在 HTTP 文件中要求网站方面声明 AI 模型名称、模型提供者、校验团队、时间戳等信息,从而避免 AI 厂商的爬虫抓取 AI 生产的内容。其实 AI 厂商也不愿意抓取 AI 内容,毕竟大家都怕垃圾内容污染自己的训练数据。从某种意义上来说,IETF 的《AI 内容披露标头》草案与 AI 水印类似,作用就是从内容生产和传播的源头入手,为 "AI 生成 " 打上识别码。
相比技术难度极高的 AI 水印,让网站主动披露内容是否由 AI 生成显然更具可操作性。唯一的问题,就是 IETF 能约束网站吗?答案是他们真的可以。作为负责互联网标准制定与推广的行业组织,HTTP、 IPv6 就都是 IETF 的结晶,用如今的互联网是建立在 IETF 工作的基础上其实也不为过。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦