雷科技 2小时前
AI视频泛滥成灾!平台管控形势严峻,用户需要强化辨别能力
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

当你在刷短视频的时候,是否会想到一些看似夸张的视频背后,其实连一个 " 真人 " 都没有?最近一段时间,小雷在抖音等平台上,不止一次看到一些颇为抽象的搞笑视频,底下有人评论:" 这是 AI 吗?"

图源:微博

AI 视频、AI 图片的盛行,已经让大家下意识怀疑自己看到的内容到底是不是真的?虽然平台的管控力度在增强,网友的警惕性也在提高,但 AI 视频的‘坑爹时刻’或许才刚刚开始。

" 别急着相信自己的眼睛 ",这句话用来描述当下的内容平台在雷科技看来非常贴切,大到国际新闻,小到身边趣闻,你会发现一切类型的视频都有可能是 AI 制作的。

前几个月的抖音、快手深夜直播那叫一个 " 群星荟萃 "。张文宏带货保健品、梁朝伟带货不知名皮鞋、刘德华劝你买羊驼奶粉,当你看到这些 " 明星 " 深夜不睡觉在直播带货时,你就该意识到这绝对有问题了。

AI 视频制作门槛极低,原本需要专业技术和软件才能制作的虚拟人,现在只需要将张文宏的露脸特写视频上传给 AI,就能轻松建模出一个高拟真的数字人脸模型,再配合 AI 声音合成技术,一个栩栩如生的 " 张文宏 " 就出现在你的面前。

整个过程不需要任何本人参与,主打一个 " 神不知鬼不觉 ",他们的产品基本瞄准老年群体,就是希望利用信息差蒙骗对 AI 不熟悉的用户,利用这些国民明星、专家的口碑来给他们的劣质、高价产品带货。

虽然在张文宏、雷军、勒东等明星名人的持续投诉下,主流直播平台基本将类似的假冒虚拟人带货禁绝了,但是却很难干涉到私域流量。一些不法商家通过私自搭建的直播平台,用虚拟人假冒明星欺骗中老年人,这类情况仍时有发生,甚至有人利用这项技术来非法集资,造成严重损失。

在全球范围,AI 视频都成为一个新的管控难题,前段时间 TikTok 上流行一个挑战:用 AI 生成一段把陌生人请进家的画面,然后发给父母。这些视频往往还附上流浪汉的自述,比如说自己是 " 父母的朋友 " 等。

因为这些 AI 视频的画面过于真实,许多人在收到孩子发送的视频后,都愤怒的直接打电话或视频,然后直言自己不认识对方,同时质问 " 流浪汉 " 到底是谁。有的父母甚至急得直接报警,并要求自己的儿子 / 女儿马上找个安全的地方待着,自己马上赶回家,接着他们再将这些反应录下来并发布到 TikTok,以此换取网友的点赞和评论。

图源:The Verge

这场挑战因为过于火爆,甚至让不少城市的警察局为此举行新闻发布会,号召大家不要尝试,因为类似的报警电话已经让警局超负荷运转,他们将无法腾出人手去处理真正的紧急警情。最后也是 TikTok 出手,将相关视频封杀后,整个热潮才消退,不过国内的抖音却依然有不少类似的视频。

虽然 " 流浪汉挑战 " 并没有引起太大的危害,但却提醒了我们:当 AI 视频越来越逼真,制作越来越容易后,该如何去管控?特别是短视频等裂变传播极快的平台帮助下,一段 AI 视频就可能引起持续数日的社会舆论,即使后续被辟谣,又有多少人能再次刷到辟谣视频呢?

举个例子,如果你刷到一段视频,内容是一个男人在当街暴打女人,但是周围的路人却熟视无睹,最后男人抢走女人的提包逃跑,此时你是否会感到愤怒?然后气愤地询问是什么地方视频,当地的警察是怎么干活的?

如果这时候突然跑出来个 " 网友 ",把视频地点模糊地指认到某个城市、乡镇,必然会给当地政府带去巨大的压力,以至于要花不少人力去核实是否有这样的街区,并且是否发生了类似的恶性事件。

此前,不少明星因为自己的绯闻挤爆热搜,发文道歉自己 " 占用公共资源 ",现在你会发现时代变了,随便一个人都可能用 "AI 视频 " 来占用公共资源。AI 强大的造假能力让虚假新闻更具迷惑性,一旦传播开来,普通受众很难分清事实与伪造,新闻媒体的公信力也因此面临更多挑战。

而且,AI 视频也让不少原创内容创作者深受其害,由于生成式 AI 可以低成本批量制造视频,一时间短视频平台上充斥着套路化、同质化的内容,在某个梗火了之后,很快你就可以在抖音、B 站等视频平台刷到海量的相似视频。

虽然这些流水线制作出来的 AI 视频往往质量一般,但是架不住数量多,它们会迅速稠稀内容池,让真正的好内容被用户刷到的概率下降。在原创视频与 AI 视频的巨大成本差距下,失去流量的原创作者将很难坚持下去,只能在退网和拥抱 AI 之间选择一个,结果就是平台上的 AI 内容越来越多,同质化越发严重。

说实话,作为一个创作者,这也是小雷最不想看到的情况。

虽然抖音等平台今年已经进行不少 "AI 内容 " 的专项整治,但是并不影响 AI 视频在平台上收获流量,特别是一些偏向搞笑、日常的 AI 视频,因为不好辨认或没有危害性,往往很容易逃过审核系统的注意。

比如前段时间小雷刷到一个狼闯入羊圈,用嘴咬开羊皮发现底下是一条牧羊犬的视频,最初只是觉得有趣,但是仔细看了两遍后就发现不对劲了,一个是摄像头位置不对(羊圈摄像头对着狗窝拍就很抽象),另一个则是羊皮从掀开到露出狗头的过渡太顺滑了,按理说狼在捕食时不太可能做出掀起的动作,而是咬住要害向后拖拽。

这些就是 "AI 视频 " 的破绽,虽然制作者很聪明地用 " 低画质 " 来掩盖 AI 创作痕迹,但是过于奇怪的视角和主体的异常举动,都是辨别 AI 视频的证据。不过,小雷看评论区的留言时,发现大多数人其实都没有意识到这是 AI 制作的。

图源:小红书

此外,那些看起来 " 戛然而止 " 的有趣视频,也有更高概率是 AI,还是用小雷刷到的羊圈视频来说,视频结束在狗抬头看向狼的时候。后续是打起来还是狼逃跑了,都没有放出来,甚至中间还穿插了视频转 A 绘画的动画帧,并且把整段视频重播了三遍凑时长。

出现这种情况,是因为现阶段的 AI 视频还无法生成过长或过复杂的片段,而且制作的视频越长,出错的概率就越大。其实,大家只要认真看背景和光线反射的地方,总能发现 AI 视频在细节上存在瑕疵。,比如莫名其妙的亮光、迷之扭曲等。

至于涉及真人的 AI 视频,其实更容易辨别,只要细心观察面部细节,基本能发现不对劲。比如脸部两侧几乎呈镜像般对称,而正常人因为生活习惯等原因,脸部微差是常态,不可能如此一致,而且 AI 数字人的面孔往往过于光滑,没有正常人的细纹、毛孔等。

图源:B 站

此外,我们也可以通过对方的肌体动作来进一步判断是否为 AI 数字人,如果对方在说话时来来去去都是相同的动作,甚至手臂甩动的幅度都是一样的,那么大概率是 AI 生成的。因为就算是强迫症患者,其实也很难保证自己每一次挥臂都保持相同的力度,更何况是说话途中的下意识动作。

如果对方是在和你直播连线,那么也可以直接提出一些简单的动作要求,比如摸一下鼻子、耳朵,用手指展示某个数字等,如果对方始终没有反应,那么基本可以确定是 AI 数字人。。

不过,说实话小雷也不知道以上技巧还能撑多久,AI 视频一直在变得更加 " 真实 ",或许一年、两年后,我们就很难凭借肉眼区分 AI 视频和现实视频的区别了。所以,最有效的武器还是我们的 " 大脑 ",只要一直保持质疑精神,凡事多问几次 " 为什么?",就能降低被 AI 视频带节奏的几率。

还有就是——相信直觉,虽然直觉听起来不够科学,但其实是潜意识对异常的快速判断。如果你看完某个视频后的第一感觉是 " 怪怪的 ",或者感觉有点违和,那么视频经过修改或 AI 创作的概率就不小了。

当然,小雷也不是让大家一直紧绷着神经去看每一个视频,对于那些搞笑的、娱乐的 " 趣味视频 ",即使是 AI 也无伤大雅,大家笑一笑也就过去了。但是对于那些争议很大、掀起舆论的视频,在转发、评论之前不妨多想想。

另外,也希望大模型技术方能够有进一步的行动,比如通过添加肉眼不可及的数字水印来帮助平台快速甄别 AI 视频。这里指的不仅仅是在线生成平台,也包括本地部署的 AI 视频大模型,在不影响画面的情况下植入数字水印,只在发布到在线平台时作为检测标记使用。

对于视频平台来说,也需要进一步升级检测机制,其实有不少公司已经在行动,比如腾讯就研发了一款检测工具,可以通过分析图像噪点和帧与帧之间的物体运动轨迹来判断内容是否为 AI 创作。对于人眼难以察觉的瑕疵,在经过训练的 AI 面前几乎无所遁形,用 AI 对抗 AI 将会成为未来内容平台的主要方式。

当技术巨头、内容平台和监管机构多管齐下,或许 " 视频造假 " 之风才能逐步降温,在此之前,大家还是需要擦亮双眼,不被那些看似真实、实则荒诞的 AI 视频牵着鼻子走。

评论
大家都在看