8 月 12 日,正在上班的成都市民张先生收到了一条 QQ 好友申请。没想太多,张先生通过了这位陌生人,很快对方给他发来了一段不雅视频以及几张不雅照片,照片和视频中的 " 男主角 " 就是张先生本人。对方以此为要挟试图勒索张先生 1 万元。
随后张先生报警,经新津警方辨认核查,对方提供的视频和照片都是由 AI 换脸生成的。这是新津出现的第一例 AI 电信诈骗,也是成都公开报道中的首例 AI 电信诈骗。
对此,反诈宣传自媒体科普作者、@黑客情报站主编罗老师表示,伴随着生成式 AI 的诞生,AI 换脸的门槛和难度逐年下降。" 各位市民如果遇到了疑似 AI 换脸的视频,可以从多个角度辨别真假,例如对话、声音、指定动作等。"
男子收到 "AI 换脸 " 不雅视频被勒索
警方及时止损
看到自己为主角的不雅视频,成都人张先生傻了眼。发视频的陌生网友要挟张先生,要他转账 1 万元 " 消财免灾 "。如果不给钱,就把这些视频、照片发给张先生周围的朋友。张先生自己回忆,并没有参与过这类不雅视频拍摄,和视频中的女性也不认识,他认定这些内容属于杜撰,思虑再三后报了警。
8 月 12 日,成都新津公安分局普兴派出所民警丁思鸣接到了成都 110 指挥中心转来的警情,并与张先生见面。
" 当时报警人自述,说被人 P 了图像,对方要求他给 1 万块钱。" 丁思鸣回忆。在过往的类似案件中,更多是男女双方裸聊,在裸聊过程中受害人被诈骗者录屏拍照,再进行勒索。像这样纯 P 图,通过 AI 制作不雅视频的事件,在新津区尚属第一次。在目前成都的公开报道中,AI 诈骗也是第一次出现。
" 我们通过网上核实,发现外地出现过类似案件。" 丁思鸣表示," 这些诈骗分子主要是针对社会上的中高端人群,先是窃取受害人的个人信息,包括电话、姓名、头像等。其实受害人很清楚这类视频照片是假的,但碍于身份,部分受害人不希望传播造成不良影响,会主动给钱来息事宁人。"
丁思鸣现场告知张先生,这是典型的电信诈骗,不法分子利用 AI 技术制造合成视频,从而实施网络诈骗。遇到此类诈骗信息千万不要选择 " 破财消灾 ",更不能和对方联系或向其转钱。最后,民警引导张先生在自己手机上下载注册 " 国家反诈中心 "App 并进行举报,有效避免财产损失。
业内人士:
可以从对话、声音、指定动作等多维度辨别真假
这类 AI 换脸诈骗是如何实现的呢?8 月 15 日,红星新闻记者联系上反诈宣传自媒体科普作者、@黑客情报站主编罗老师。
" 其实 AI 换脸技术已经广泛发展很久了。伴随着生成式 AI 的诞生,AI 换脸的门槛和难度逐年下降,现在可以说用户只需要一台配置稍微好点的电脑,就可以实现初步的 AI 换脸效果。" 罗老师介绍,现有的协助软件也很多,但市民不用过于担心," 因为相较于 AI 直接从零生成视频的 SORA 模型,AI 换脸至少还需要你的正面照片作为训练对象。对于老百姓来说,面部资产其实并不是那么容易被不法分子得到。"
" 如果遇到了疑似 AI 换脸的视频,可以从多个角度辨别真假,例如对话、声音、指定动作等。" 罗老师表示," 因为以如今的 AI 换脸技术发展程度来看,虽然可以以假乱真,但没有办法做到实时无缝(连接)替换。只要多从几个角度去测试,便可以轻松识别以 AI 换脸为基础的诈骗手法。"
对于 AI 电信诈骗,新津公安提醒:凡是突然收到不明来路的照片、视频,做到不听、不信、不转账;加强保密意识,避免泄露个人隐私,遇到此类诈骗,注意及时完整保存图片、视频、文字等证据,及时拨打 110 报警求助。
来源:成都商报 - 红星新闻
编辑:王奇
版权归原作者所有,如有侵权请联系我们!
登录后才可以发布评论哦
打开小程序可以发布评论哦