传媒1号 5小时前
Grok遭立案调查,为AI内容划下「红线」
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

1 号出海 · 第 255 篇

英国监管机构 Ofcom 就 X 平台旗下 Grok AI 涉嫌生成与传播非法深度伪造内容立案调查,揭露了私密影像传播与儿童性虐待等高风险问题;与此同时,马来西亚与印尼已率先封禁 Grok AI,全球监管迅速形成合围。这不仅是一起关于技术滥用的个案,更是一场围绕「平台责任」与「外部监管」的交锋:当生成式 AI 从辅助工具变为内容生产主体,平台还能否以「中立」自居?

近日,英国通信管理局 Ofcom 已对 X 发起立案调查,直指其旗下 Grok AI 被用于生成和传播非法深度伪造内容,包括未经同意的私密影像及可能构成儿童侵害材料(CSAM)的未成年人图像。Ofcom 认为,这已触及《网络安全法》所界定的高风险非法内容。此外,马来西亚与印尼等国家因担忧深度伪造风险,已经选择率先封禁 Grok AI。

Grok AI 被用于生成和传播非法深度伪造内容

Ofcom 要求 X 说明合规措施,并在评估后启动调查,将重点审查:平台是否评估过英国用户接触非法内容的风险;是否采取了足以阻断非自愿私密影像与 CSAM 的技术措施;以及在发现违法内容时是否做到「迅速删除」;以及是否对未成年用户部署「高度有效」的年龄验证。尽管 X 随后为 Grok 图像编辑功能设置付费与身份验证门槛,通过「实名化+付费门槛」降低滥用风险,但免费用户仍可通过独立应用与网站使用,应对效果有限。

若最终被认定违法,X 将面临最高 1800 万英镑或全球合规营收 10% 的罚款,出现严重不合规还可能被要求封锁平台或切断广告与支付功能。同时,Ofcom 仍在评估是否对 xAI 单独立案,显示监管正从平台端延伸至模型提供方。

Grok 近来遭遇的强力监管,向所有生成式 AI 平台发出了明确信号:我们真正面临的问题,从来不只是「技术能做到什么」,更是「社会需要什么」。如果说监管是一道红线,那么真正决定企业能否走远的,在于其是否愿意把「对人的保护」放在产品设计的起点。近几年,国内 AI 平台在合规上的一些具体做法,恰恰提供了值得借鉴的路径。

首先是对用户群体的前置保护。以敏感最高的「AI 换脸」为例,阿里云的「通义万相」、百度的「文心一格」等平台,均在涉及人脸替换、合成时设置实名认证、用途声明与明显水印,且对裸露、性暗示、未成年人相关场景实施强拦截,此举可以从源头上规避不法者利用技术对弱势群体的伤害。

其次是对未成年人的「分级保护」。字节「豆包」等产品在涉及成人内容、敏感话题时,采取年龄识别、分级展示与结果引导:不仅拒绝生成高风险内容,还会弹出求助信息提示或转向科普与心理疏导。此举不再是为了「合规」而「合规」,而是真正在关键时刻为青少年留下一道「安全缓冲带」。

「豆包」上线未成年人模式

最后是可追溯与纠错机制,保证普通用户「追诉」的权利。多家国内平台在生成内容中嵌入可识别水印,配合「发现即下架」的投诉通道;当用户发现自己的肖像、作品或隐私被滥用时,能迅速定位来源、举报内容、限制账号。这意味着被侵权者不必独自承受技术滥用的后果,而是有据可查、有源可溯。

这些合规措施不在于流程多严密、技术多先进,而在于其强调了一个经常被忽视的常识:技术进步若以普通人的权益为代价,其带来的便利性便不值一提。合规不是创新的对立面,而是创新的伦理基础。在全球 AI 监管日益收紧的当下,中国平台只有把社会责任感内化为产品逻辑,才能在出海之路上行稳致远。

译者|小塞

编辑|分味

文章来源|Variety

原文作者|Naman Ramachandran

原文发布日|2026.1.12/ 周一

《主编浅度》视频号

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 立案调查 英国 马来西亚
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论