假作真时真亦假。
文 | 杨睿琦
" 顶流男星豪赌 10 亿 "" 路易吉自杀 "" 梅西去世 ",这些都是近期流传在网上的 " 新闻 "。
与其叫它们 " 新闻 ",不如叫 "AI 幻想碎片 "。近些年来,随着人工智能的快速发展,生成式内容得到越来越多人的关注。
用 AI 生成 " 新闻 ",成了最近大家的新乐子,不少网友开始尝试自己生成相关内容并进行传播。
" 顶流男星豪赌 10 亿 " 就来自某网友手笔,该网友使用 AI 软件输入社会热点词,制作了标题为‘顶流明星被曝境外豪赌输光十亿身价引发舆论海啸’的谣言信息,并在小红书、微博等社交平台迅速扩散,目前已被处以行政拘留 8 日处罚。
(图源:微博)
其实使用 AI 助力新闻生产不是新鲜事。早在十年前新华社就开发了自己的第一位机器人记者 " 快笔小新 "。它可以 7×24 小时不间断工作,更可以跨越条线,原本需要编辑记者们 15~30 分钟完成的稿件," 快笔小新 " 只需要 3~5 秒钟就能完成。
国外媒体如 BBC、纽约时报等媒体也都将 AI 纳入新闻生产过程。但用 AI 助力新闻生产与用 AI 生成新闻是两码事。
由于当前语言类 AI 还是抓取语料进行生成,不少网友的自发内容也会被 AI 识别为 " 资料 ",从而生成一些看似真实,实际根本没有发生的 " 新闻 "。
更值得注意的是,这些由 AI 生成的假新闻正成为内容循环的源头,也就是说用户用 AI 生成内容进行发布,其他用户进行相关提问,AI 会再次抓取这些内容反馈给用户。
当新闻有一天也可以被 " 生成 ",它将带来什么,又将消解什么?带着这些问题,毒眸与多位媒体行业、AI 行业以及互联网行业从业者展开对话。
在 AI 席卷而来的当下,我们更需要厘清,真实与虚幻的边界。
顶流男星的谣言
" 哇,是林俊杰还是周杰伦啊?玩这么大!"
三月初,一则内容为 " 某超一线男星在澳门永利皇宫赌场贵宾厅连赌七日 " 的消息在网络疯传。这则消息据称 " 经权威渠道确认 ",由国际金融调查机构 Global Financial Watch 于 3 月 10 日发布的跨境资金异常流动曝光。
信息显示,该位 " 顶流男星 " 七日豪赌输尽 10.3 亿元流动资产,抵押三处豪宅及私人飞机,为翻本还向澳门黑帮借贷 3 亿元。
网友吃瓜热情被迅速点燃,相关帖子开始在微博、小红书、豆瓣、知乎等社交平台大肆传播,林俊杰、周杰伦等 " 顶流男星 " 都被提及,甚至还有网友跑到黄晓明微博下方求证是否输了十亿,得到对方 " 欢乐豆吗?" 的回答。
(图源:@黄晓明)
这条消息还释出了相当多的细节,诸如该男明星输掉的 10 亿分为离岸公司转入 8.6 亿,以及地下钱庄兑换 1.7 亿港元现金筹码;其内地经纪公司还在 3 月 9 日深夜发布声明承认其存在 " 个人财务问题 ",两栋被抵押的豪宅分别是位于北京朝阳区 2.8 亿元的独栋别墅以及上海陆家嘴的顶级公寓。
眼见各位被猜测的男明星们都默不作声,舆论风波愈演愈烈,越来越多的男明星被网友列入 " 可能名单 "。就在网友们猜的不亦乐乎之际,公安部网安部门发布通告,原来这条看起来有鼻子有眼的网络消息,竟然是 AI 生成的假新闻。
(图源:@人民日报)
公安部通告称," 网民徐某强(男,36 岁)为博取流量、谋取非法利益,于 2025 年 3 月 10 日 10 时,使用软件 " 某书 " 中 AI 智慧生成功能,输入社会热点词制作了标题为‘顶流明星被曝境外豪赌输光十亿身价引发舆论海啸’的谣言,公安机关根据相关法律法规,已对徐某强处以行政拘留 8 日处罚。"
无独有偶,在震惊韩国的金秀贤金赛纶事件中,也有 AI 假新闻的身影。
3 月 12 日,微博名为 " 恋舆智 " 的网友发布微博,称金秀贤在金赛纶头七当天(2025 年 3 月 12 日前后)通过粉丝互动平台 Bubble 发布动态,晒出粉丝礼物,并称 " 不愧是超级 chill 的我 "。
(图源:@恋舆智)
这条消息没有引起 " 顶流男星豪赌输 10 亿 " 如此大的舆论风波,但也燃起不少中国网友的义愤之情。由于金赛纶与金秀贤此前恋爱六年,金秀贤涉嫌 " 恋童癖 ",金赛纶又在男方生日当天选择自杀,让这条消息也开始快速扩散。
但仔细分析此条微博,就会发现金赛纶去世日期为 2 月 16 日,头七不管按照中韩哪一国家的习俗计算,都不应该是 3 月 12 日。
和 " 顶流男星豪赌十亿 " 的 " 新闻 " 一样,这些 AI 生成式内容虽然看起来真实详细,但只要仔细一想,便有诸多细节经不起推敲。或许 AI 比新闻从业者更是熟知人性,在这些精准挑动网友情绪的 " 新闻 " 中,AI 加速了生成新闻的脚步,同时也消减了用户冷静思考的反应与时间。
此时 AI 担任的不再是省时省力的工具角色,而是幻觉碎片的生产者。
AI 的自由与偏见
这两年,AI 假新闻层出不穷,而且以文字、图片、视频等各种形式出现。
今年年初,西藏日喀则市定日县发生 6.8 级地震,多张 " 小男孩被埋图 " 在网络疯传,引发网友关切。然而经公安机关核查,这些图片均由一位青海网友使用 AI 工具生成而来,该网友将日喀则地震信息进行关联拼凑,引发谣言扩散。
( 图源:@新华社)
除此之外,还有不少网友也使用 AI 工具嫁接图片,以其他地区地震现场生成为定日地震现场,骇人听闻。
2023 年," 杭州市政府 3 月 1 号取消机动车依尾号限行 " 的 " 新闻 " 也在网络疯传。
随后 " 江浙之声 " 报道,这则所谓的 " 新闻 ",是杭州某小区业主群讨论 ChatGPT,一位业主开玩笑,称试试用 ChatGPT 写 " 杭州取消限行 " 的 " 新闻 ",并在群里直播 ChatGPT 写作的全过程,其他看到文章的业主直接当成新闻截图转发。
( 图源:@人民日报)
AI 还生成诸如 " 路易吉自杀 "" 梅西去世 ""80 后死亡率突破 5.2%" 等各种耸人听闻的假新闻,从这些案例中不难看出,AI 假新闻已经蔓延至文娱、体育、社会生活等多个领域,并产生不小影响。
在此前毒眸对十位记者的采访中(《国产剧请放过记者》),不少媒体从业者也都提及日常工作已经开始使用 AI,会用 AI 生成视频新闻封面、搜集信息数据等。
2015 年,新华社就开发了自己的第一位机器人记者 " 快笔小新 "。" 快笔小新 " 可以 7×24 小时不间断工作,更可以跨越条线,从体育赛事报道到股市、国债开收盘,它都能自动根据信息快速生成新闻稿件,原本需要编辑记者们 15~30 分钟完成的稿件," 快笔小新 " 只需要 3~5 秒钟就能完成。
( 图源:@新华社中国网事)
在国外,新闻从业者对于 AI 的使用更加激进大胆。
3 月 18 日,意大利自由保守主义日报《Il Foglio》发布了全球首份完全由 AI 生成的报纸。该份报纸共 4 页,全部内容均由 AI 生成。头版头条剑指美国总统特朗普,此外头版还刊登了专栏文章《普京的十次背叛》,称普京 "20 年来违背承诺、撕毁协议和言而无信 "。
经济、文化版面也都由 AI 生成最新数据讨论及社会现象分析,最后还刊登了由 AI 生成的 " 读者来信 "。
《Il Foglio》编辑 Claudio Cerasa 认为,《Il Foglio AI》展现了一份 " 真正的报纸 ",它是 " 新闻、辩论和观点碰撞的产物 " 以及 " 我们不得不思考的问题,这些问题不仅仅是新闻领域的 "。
( 图源:微博)
《洛杉矶时报》在今年 3 月 3 日也引入了一项新功能 "Insights"。"Insights" 可以表达特定观点或 " 从个人角度 " 撰写文章,但就在一天后,由于 "Insights" 淡化三 K 党种族主义问题,该功能随即下线。
代表《洛杉矶时报》记者的工会也随后发表声明,对 " 未经编辑部审核的 AI 生成分析 " 表示担忧。工会表示,他们不认为这种做法会 " 增强公众对媒体的信任,相反,这种工具可能会进一步削弱新闻机构的公信力 "。
在毒眸和多位媒体从业者的对谈中,我们也发现,随着使用程度加深,也有不少新闻从业者开始掉入 "AI 陷阱 "。
"3 月份乌拉圭和阿根廷的比赛,梅西都没上场,国内某知名体育垂直媒体平台发布的半场战报就有‘梅西通过灵活跑位为球队创造机会’的这种表述,疑似是用 AI 提前写的。日常搜集资料的时候,我也在大平台上看到过 AI 生成的莫须有新闻战报。" 知名体育自媒体博主碧波介绍。
(图源:@爱可可 - 爱生活)
" 我们会使用 AI 进行基础资料搜集,原本以为会比较省力,但最近发现工作量似乎更多了,因为要验证 AI 给到的是否是‘假数据’ "。文娱记者周敬仪这样说道。
多位媒体从业者都提到 ChatGpt、DeepSeek、kimi,这是目前媒体从业者使用最多的三个 AI 应用。
"kimi 会给到很多文章索引,使用起来比较方便,但这些参考文章良莠不齐,有些也是网友自己发布的信息。" 财经记者朱元这样认为," 但财经条线还好,因为我们一般用 AI 搜集财报数据以及经营数据 "。
拥有八年文娱行业从业经历的编辑李莞尔则有些 " 苦不堪言 "," 刚入行的时候我就发现很难找到关于文娱产业的权威信息,当时主流还是用百度,但搜出来的基本都是网友自己发的八卦,或者是片汤话凑出来的所谓‘文章’,毫无价值。"
有了 AI 之后,李莞尔的工作似乎更难了。" 我之前非常信任 DeepSeek,因为感觉更有‘人味’,但后来发现,它生成的内容看似非常完整且很‘权威’,但很多内容根本就不存在。如果对行业没有积累或者常识,很容易被骗到。"
一条莫比乌斯环
如同莫比乌斯环,现在的 AI 已经形成 " 虚空内容环 "。
从上述 AI 假新闻的相关报道中,我们能看到,几乎都是用户自发在 AI 相关应用中输入指令即可完成。
"AI 生成新闻的 prompt 非常简单,下指令,加一段参考,把新闻教科书里的写作要求写进去,再根据一些基础事实以及搜索内容就可以生成。不需要专业 AI 应用,在网页版甚至就能生成。"AI 行业从业者 Ingemar 这样说道。
(图源:@温商信息服务)
就职于 AIGC 相关企业的 Han 则提供了另一种生成可能。" 还有一种类似于自动抓取信息,比如在某搜索引擎上比较常见的无价值聚合信息。这在这一轮生成式 AI 爆发前就存在,主要利用爬虫加上一代的文字处理 AI 做简单处理来填充平台内容。"
这更接近李莞尔在上文中提到的,更早时期,搜索引擎提供的无用信息。如果说早期这些无用信息大规模聚合在搜索引擎搭建的内容平台上,那到如今随着社交媒体快速发展,以及传播媒介的快速更迭,这些内容被更快、更广、更大规模地散播于更多平台。
比如 " 顶流男星豪赌 10 亿 " 就在小红书上引起广泛讨论,更是一度登上微博热搜。一则 AI 假新闻的生产成本、传播成本都被大大降低,其扩散范围也变得更大、更广。
(图源:小红书)
更值得注意的是,这些由 AI 生成的假新闻正成为内容循环的源头,也就是说用户用 AI 生成内容进行发布,其他用户进行相关提问,AI 会再次抓取这些内容反馈给用户。
" 这接近于 AI 的数据崩溃的合成数据递归,持续下去会让数据库完全失真,是一个大问题,之前有不少 LLM(AI 大语言模型)训练时都遇到过这一问题。AI 假新闻的产生很大程度上是这一问题的根源也是这个问题的结果。"Han 这样认为。
即便 LLM(AI 大语言模型)以学习文本数据为核心,但这些文本数据往往包含 " 历史和当代的偏见 " 以及如今真假混杂的信息,导致模型再精心筛选训练,也难以解决这一问题。
剑桥大学博士后,西湖大学终身教授张岳在澎湃新闻的采访中分享了目前主流的三大 AI 生成文本鉴别法,主要是监督分类器法、零样本分类器法以及水印法。
(图源:@澎湃新闻)
" 监督分类器法要收集大量已知数据,做分类学习。对训练时见过的大语言模型生成的文本,它的识别准确率较高;但遇到未见过的模型生成的文本,识别准确率下降;Fast-DetectGPT、DetectGPT 属于零样本分类器法,无需收集数据进行训练,主要通过 AI 文本的特征来 " 找同类 ";水印法是在生成 AI 文本时打上 " 水印 "。相关服务提供者对生成合成内容添加显式标识,或在生成合成内容的文件元数据中添加隐式标识,这种方法准确率高,但存在标记被人为弱化甚至移除的风险。"
" 目前法规也在规范化相关内容,比如要求 AI 生成内容需要额外标注,有了标注,后续这一问题有可能会得到缓解。"Han 补充道。
在今年两会上,也有人大代表提出加强对 AI 生成虚假信息治理的建议。全国政协委员、四川大学华西医院教授甘华田在接受红星新闻采访时称,AI 深度伪造视频、政府公告、企业声明、名人言论、虚假金融信息等行为,已严重干扰公众的判断,这类虚假信息不仅误导消费者,还损害了社会公信力。
(图源:@中国普法)
国家互联网信息办公室、工信部、公安部、国家广电总局已发布《人工智能生成合成内容标识办法》,将于今年 9 月起实施,《办法》聚焦人工智能 " 生成合成内容标识 " 关键点,通过标识提醒用户辨别虚假信息,明确相关服务主体的标识责任义务,规范内容操作、传播各环节标识行为。也就是开始对 AI 内容 " 打水印 "。
国外方面,OpenAI 也已与新闻集团和《金融时报》签署了商业合作及授权协议,让 ChatGPT 用户能看到特定的、注明出处的新闻摘要、引用和链接。
(图源:@新浪科技)
这些措施与手段都在强化 AI 生成内容的可靠性与确定性。在这个人人都可以产生内容," 假作真时真亦假 " 的时代,AI 的确如同双刃剑,但不管如何使用,这把剑始终不能对着自己。
登录后才可以发布评论哦
打开小程序可以发布评论哦