把科学带回家 09-11
偷走全红婵声音,在网上卖鸡蛋?你看的明星带货直播,可能是AI偷来的……
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

你是不是也经常遇到 "AI 配音 " 的视频?

在铺天盖地的网络短视频中,你是不是也经常遇到 "AI 配音 " 的视频?现在,许多短视频都直接用上了 AI 配音,你一定听过经典的悟空四郎等音效。

如今," 声音克隆 " 这项技术,已经被集成进了各种短视频和 AI 平台,成为了每个用户都可以一键使用的功能:只需要录一小段自己的说话声,AI 就能直接 " 复制 " 出你的声音和语气。

不过,这也意味着,你的 " 声音 " 很有可能被偷走、被利用,造成不堪设想的结果

不知道你有没有在短视频里刷到过奥运冠军 " 全红婵 " 卖鸡蛋的视频。视频里,奥运冠军 " 全红婵 " 戴着口罩对镜头说话:" 我是你们的婵宝,今天有事请大家帮忙。婵妹就想着帮助妈妈,让家里的生活过得更好一点,同时把老家的土鸡蛋分享给粉丝们尝尝 ……" 而有些刷到的网友听到 " 全红婵 " 的声音,则会购买支持。商品的购买次数甚至高达 47000 次。

网络账号用 " 全红婵 " 的声音卖鸡蛋。而全红婵本人的家人则表示,这些声音都是 AI 生成的。|央视新闻

除了全红婵,奥运冠军孙颖莎、王楚钦等也开始帮短视频商户推销鸡蛋。不过,最近的报道显示,短视频上的声音,都是 " 假 " 的,是 AI 偷走然后克隆,而这些奥运冠军并未参与任何的代言和授权。不过,从鸡蛋的销量来看,有 47000 位网友不小心陷入了这场 AI 骗局。

你在短视频网站上见过 AI 克隆明星带货的视频吗?|央视新闻

去年雷军也曾陷入被 AI 仿冒恶搞的困境,网络上涌现出大量 " 恶搞雷军 AI 配音 " 的视频,用雷军的形象和声音发布不实发言、锐评甚至极端内容。雷军本人不得不出面呼吁大家不要再玩雷军语音包,说 " 希望大家不要再玩了 "。

2024 年在美国,乔 · 拜登的声音也被克隆,电话直接打到选民家中,告知接听者不要在周二的总统初选中投票。

除了假冒名人带货和发言,普通人的声音被偷走也很危险。骗子很有可能用你的 AI 声音诱导你的亲人或朋友,诱骗他们汇款或泄露敏感信息。

网络安全公司 McAfee 发布的一项 7000 人参与的调查研究显示,70% 的人分辨不出克隆声音和真实声音之间的区别。7.7% 的人表示他们被 AI 克隆的声音骗过钱。其中,36% 损失了 500 至 3000 美元,而 7% 则被骗了 5000~15000 美元。

这项调查还揭示了一些诈骗的细节,比如 45% 的诈骗都是假冒朋友或家人发来的语音消息,其中请求来自伴侣或配偶(40%)、母亲(24%)或孩子(20%)。而消息内容包括:车祸(48%)、遭受抢劫(47%),丢了手机或钱包(43%)和出国旅行时的意外(41%)。

骗子常用的诈骗场景:车祸、抢劫等。在每个国家都频繁发生。|参考资料 1

这种诈骗的方法也是 " 鱼叉式网络钓鱼 " 的其中一种,指的就是有针对性的,面向特定目标进行的诈骗和攻击。如今许许多多的网络诈骗都是如此,它们看起来就像为受害者量身定制,看起来可信度很高。而 AI 则让这种诈骗更加普遍,也更难被我们检测出来。

因此,在这种情况下,及时联系亲友做好事实核查就变得至关重要。以为银行的信息安全官还提醒,可以与亲人约定一个 " 安全短语 "——就像是你和家人之间独特的暗号——可以用来通过电话验证身份。

老年人等对新型科技手段不熟悉的人更容易被骗。因此,提醒家里的老年人,并和他们约定验证身份的方式十分重要。|CBC 截图

不过,更危险的是,骗子想要偷走 " 声音 ",难度比你想象得小多了。除了网络上的各种技巧和工具外,McAfee 的研究人员还发现,3 秒钟的音频就足以生成一个与原始语音匹配度高达 85% 的克隆语音。如果再加入一点点训练数据,匹配度可以达到 95%。

而一些 AI 音频生成软件如今甚至还可以克隆出人声各种 " 呼吸声 ",比如沉重的叹气,气喘吁吁的声音等,甚至还能改变你说话时周围的环境音 ……

所以,骗子可以从哪些渠道偷走你的声音呢?

(1)在社交媒体、电话发布的已有的视频中的你的声音。

(2)当你在使用一些软件的时候,在没有花时间看的用户协议里,可能已经将自己的声音 " 授权 " 给了软件

在网络上分享声音,已经成为了一个很普遍的现象。而平台和软件缺乏监管和保护,我们的声音就很有可能会被盗取。|参考资料 1

(3)标榜赚钱的骗局:一些有声书 " 兼职配音 " 的线上试音,也许就是骗取个人隐私和声音的手段。

这种 " 配音兼职 " 有着刷单、诈骗和盗取个人资料的风险,所以一定要保持警惕。|图源网络

最后,我国正在出台各种监管手段,整治 AI 克隆声音的乱象,帮助受害者维权。

2020 年,《民法典》首次将我们的声音纳入法律保护。非法模仿他人的声音,就和肖像一样可能是侵权行为。2024 年,北京互联网法院判决两家公司向一名配音演员支付 25 万元人民币的赔偿,因为这两家公司未经同意克隆了该配音演员的声音。这是中国首例保护语音权免遭人工智能克隆的法律判决。

2025 年 9 月 1 日起施行的《人工智能生成合成内容标识办法》则明确表示,服务提供者应当对文本、音频、图片、视频、虚拟场景等生成合成内容添加显式标识

参考资料

[ 1 ] https://www.mcafee.com/ai/news/ai-voice-scam/#:~:text=These%20tools%20required%20only%20a,small%20number%20of%20audio%20files.

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 雷军 全红婵 短视频 奥运冠军
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论