三个月内,父亲在嘉兴经营的生鲜网店连续遭遇 9 起 " 仅退款 " 事件,这让在上海工作的陈晓薇警觉起来。
今年 10 月假期,她专程回到老家,仔细查看父亲的手机记录,试图弄清缘由。
" 父亲的店铺主打‘现摘现发’,已经营五年。每次发货前,他都会录制封箱视频,清晰记录柑橘的色泽、果径和包装单号。" 陈晓薇告诉央视网《锋面》记者。
然而,当她登录网店后台核查时,却发现这几起 " 仅退款 " 的买家均提供了开箱图片——箱内的柑橘要么腐烂变质、要么干瘪失水,甚至出现虫蛀痕迹。

受访者供图
起初,陈父以为是快递运输环节出了问题,前几单均同意了退款申请。但随着类似情况越来越多,他与快递公司多次沟通未果,只得求助女儿。" 我一张一张仔细查看,注意到其中一张图的角落留有疑似水印的痕迹,像是被裁剪过。" 陈晓薇联想到近期媒体报道的 AI 修图 " 仅退款 " 现象,怀疑店铺遭遇了有组织的恶意退款。
通过简单搜索,陈晓薇发现,利用 AI 技术篡改图片、伪造商品质量问题并申请退款的行为已非个例。她随即向平台提交封箱视频和疑似 AI 修改的图片申诉,却因 " 凭证不足 " 被驳回,平台建议她与买家协商解决。" 但这类买家通常已将我们拉黑,根本无法联系。" 陈晓薇无奈表示。
她进一步致电平台客服,对方回复称 " 无法判定图片是否由 AI 生成 "。由于涉及订单总金额不足 1000 元,未达到诈骗罪立案标准,报警途径也难以走通。陈晓薇感叹,AI 生成的水印可以被轻易去除,平台缺乏有效检测机制,最终受损的往往是像父亲这样诚信经营的小商家。
值得注意的是,2025 年 3 月 14 日,国家互联网信息办公室联合多部门发布了《人工智能生成合成内容标识办法》,明确规定 AI 生成内容需进行强制标识,如文本添加提示符号、图片视频嵌入水印等。该办法于今年 9 月 1 日正式实施。

图源:中央网络安全和信息化委员会办公室网站
但《锋面》记者调查发现,一方面,仍有大量新生成的 AI 内容未按规定添加标识;另一方面,即便已添加水印,也可通过技术手段轻松去除。这使 " 强制标识 " 政策在落地时面临新挑战。

" 水印 " 的去与留
事实上,自生成式 AI 技术兴起以来," 打假 " 与 " 辨真 " 便成为技术发展过程中绕不开的话题。
" 目前相关规定主要将 AI 内容标识分为显式和隐式两种,显式标识要求以用户可明显感知的方式标注 AI 生成内容。" 独立 AI 开发者路磊指出,当前争议主要集中在显式标识的实施层面。
" 但主流采用的‘水印’方式存在一个致命缺陷——极易被篡改或去除。" 路磊举例说明," 比如多数 AI 绘图工具将水印置于画面角落,用户仅需使用手机自带的裁剪功能,就能在不影响画面整体效果的情况下轻松去除水印。"

通过裁剪图片去除 AI 水印
记者调查发现,电商平台上存在大量 " 图片视频去水印 " 服务,单次收费仅需几元至十几元。有商家透露,图片去水印操作简单,甚至有时使用基础修图软件即可完成;视频去水印则相对复杂,需要一帧一帧修复、校准,但对画质要求不高的可以直接裁剪去除。
这样一来,视频或图片很容易就摆脱 "AI 生成 " 的标签,达到以假乱真的效果。" 去除水印后,不仅普通用户难以辨别,部分专业检测工具也会失效。" 路磊表示。

与此同时,创作者群体却面临 " 过度标识 " 的困扰。插画师李沐阳抱怨道:" 我用了 72 个图层、手绘三万多笔完成的作品,仅因使用 AI 微调局部光影,就被系统打上‘ AI 生成’标签。" 其作品在社交平台发布后不仅被自动标注,还遭遇流量限制,曝光量不足平日十分之一,甚至收到 " 用 AI 偷懒 " 的负面评论。
" 从发丝笔触到衣物褶皱都经过精心打磨,AI 目前根本达不到这种创作精度。" 李沐阳无奈表示,他联系平台客服,却被以 " 系统自动标识 " 为由拒绝人工干预修正。
一面是消费者苦于难以辨识经过篡改的 AI 内容,一面是创作者受困于平台的机械化标识机制。AI 水印的 " 强制标识 ",遭遇两种看似矛盾实则普遍存在的尴尬。

平台的难题
根据中国通信院发布的《生成式人工智能产业发展报告(2025)》,2024 年我国生成式 AI 用户规模已达约 3.8 亿人。与此同时,《中国网络视听发展研究报告(2025)》显示,2024 年平均每日新增视频内容超过 1 亿条。
面对如此庞大的数据量,平台陷入了难以实现 " 逐一审核 " 的资源困境。
根据路磊的观察,当前像李沐阳所遭遇的 " 误判 ",主要源于平台普遍采用的 AI 识别模型。" 这些模型通过学习海量 AI 生成内容建立判定标准,却容易将人类创作中的优质特征误判为 AI 产物。" 例如,画师反复打磨的笔触与色彩搭配,学术论文中逻辑严密的表达,都可能被系统标记为 AI 作品——越是精良的作品,越容易被误判,形成一种技术悖论。

图源:视觉中国
西南政法大学人工智能法学院教授冯子轩进一步指出:" 人工智能生成的内容涵盖文本、短视频、直播、虚拟场景等多元形态,不同场景的技术架构、传播逻辑差异巨大,单一的技术方案没有办法适配所有的场景。"
然而,即便采用嵌入代码的隐式标识,也面临技术标准不统一的挑战。某头部互联网公司的 AI 架构师张晓(化名)透露,不同 AI 工具生成的隐式标识格式差异巨大:有的嵌入特定字符,有的采用数字水印加密。" 平台难以适配数十种甚至上百种标识规则。在跨平台传播过程中,标识丢失或无法识别的问题时有发生。"
张晓还表示,多模态 AI 识别需要强大的算力支持。目前企业为控制成本,无法对所有上传内容进行全面检测,只能通过抽样检查、关键词过滤等方式简化工作。
因此,平台陷入双重困境:一方面难以应对每日海量的生成内容,另一方面又必须在 " 维护创作者体验与平台流量 " 和 " 履行 AI 生成内容核验义务 " 之间平衡。

李沐阳认为,当前平台尚未建立完善的申诉机制。" 我可以接受误判,但不能接受申诉无门。" 他多次尝试与平台沟通,却始终未能解决问题。" 在 AI 日益普及的今天,平台难免出现误判,但必须设立专门的申诉渠道。"
对此,路磊透露,建立专业复核团队需要大量既懂 AI 技术又懂创作的复合型人才,而这类人才目前稀缺且培养成本高昂。因此,像李沐阳这样 " 投诉 12 天才得以解决 " 的情况,在未来一段时间内仍将存在。

解决 AI 乱象,不能止于 " 打个水印 "
在采访中,受访者普遍认同,对 AI 内容进行强制标识的初衷是合理的。然而,如何确保 AI 在 " 技术向善 " 的方向上不偏离轨道,多位专家和业内人士提出了各自的见解。
北京航空航天大学法学院副教授赵精武指出,强制标识并非解决 AI 乱象的 " 万能钥匙 ",真正需要建立的是覆盖全链条的治理体系。
那么,如何构建既具穿透力又具备广泛适用性的规范?在冯子轩看来,应通过 " 底线 " 与 " 弹性 " 相结合的方式搭建基础框架:" 即由法律确立统一的标识标准,同时为不同应用场景预留适配空间。明确‘显式标识’与‘隐式标识’的双重要求,并通过责任分层机制匹配不同场景。" 例如,服务提供者承担 " 源头标识义务 ",平台履行 " 核验补充义务 ",并对用户故意删除标识的行为明确法律责任。

面对 " 造假成本低、合规反而吃亏 " 的现象,冯子轩主张提高违法代价:" 内容创作者应承担首要责任,必须依法完成标注。一旦出现造假行为,应作为第一责任主体承担法律后果。平台方面,既要提供标识技术支持,也需建立实时核验机制。若因平台失职导致违规内容大规模传播,则应承担相应补充责任。"
针对 AI 标识可能引发的 " 误伤 " 问题,冯子轩建议按商业与非商业场景进行区分,对原创度设置差异化的标注要求。" 非商业内容可采用轻量化显式标识,商业内容则需确保标识清晰可见,并建立误判复核机制,允许创作者向平台申请纠错与赔偿。"
事实上,除强制标识外,AI 相关法规仍在不断完善中。职业律师安宇华指出,目前《生成式人工智能服务暂行管理办法》与《人工智能合成内容标识办法》等均属于部门规章,法律效力层级较低,内容也较为零散,缺乏一部高位阶的统筹性法律。" 以温峥嵘遭遇的 AI 换脸事件为例,维权仅能依赖肖像权、隐私权等分散条款,对大规模声誉损害难以量化界定,缺乏强有力的高阶法律支撑。"

在规则统筹不足的同时,具体细则也有待进一步明确。冯子轩认为,当前的双轨标识机制标准模糊,处罚规则不够清晰,有必要出台更详尽的执行细则。" 例如,以强制性国家标准为基础,确保隐式标识可跨平台追溯与核验;将罚款额度与违法所得挂钩,按违规情节分层处罚,对恶意篡改标识、批量造假等行为加大惩处,并明确创作者、平台及技术提供者的责任边界。"
可以预见,《人工智能生成合成内容标识办法》的出台仅是治理进程的起点。完善强制标识只是基础,构建全方位的 AI 信息治理,或许才是真正的解题之道。
乙巳年
十月初九
2025-11-28
监制:李绍飞
编辑:杨瑞
审校:天明
原创声明:本文为央视网原创作品,未经许可,禁止转载、复制、摘编、改写及进行网络传播等一切作品版权使用行为,违者将依法追究其相关法律责任。


登录后才可以发布评论哦
打开小程序可以发布评论哦