赶紧查查你的 AI 插件,因为它们很有可能是隐私泄露的幕后黑手。日前,数据删除服务机构 Incogni 针对 AI 插件的最新研究报告显示,在抽样调查的 Chrome AI 插件中,有超过一半存在收集用户数据的行为,其中近 1/3 瞄准了直接定位用户本人的个人可识别信息(PII)。

Incogni 的研究人员通过对 442 款冠以 "AI" 之名的插件进行深度分析后发现,这类插件往往是通过 " 脚本编写 " 权限,来实时获取用户输入的内容或更改网页显示的信息。这份报告中指出,编程助手、数学辅助工具、会议助理以及语音转录类插件的风险系数最高,其中不乏在线语法纠正和校对工具 Grammarly、AI 内容检测工具 Quillbot 等知名插件。
由于当下用户手中存量设备的算力有限,所以现阶段业界向用户提供 AI 能力的主流方式依旧是云端部署,不需要用户在本地安装各种复杂的框架和运行库,只需要下载一个 App、打开一个网页即可。如此一来,AI 插件就成了大家体验 AI 产品最为便捷的方式,只需打开浏览器点击安装,就能在上网冲浪时获得 AI 的帮助。

不过 AI 插件盯上用户的数据几乎也是必然,因为 " 数据荒 " 已经是高悬在所有 AI 厂商头顶的达摩克利斯之剑。《经济学人》就曾指出,到 2028 年互联网上所有高质量的文本数据都将被使用完毕,机器学习的数据集可能会在 2026 年之前就耗尽所有 " 高质量语言数据 "。这也就意味着," 互联网上的可用信息几乎被 AI 吸干了 "。
缺乏足够的数据来迭代 AI 模型,当下已经是所有 AI 厂商倍感头疼的问题。为了解决这个麻烦," 合成数据 " 成为了过去两年间 AI 行业的热点,可是在实际应用过程中,合成数据已经被证明难以摆脱欠拟合 ( Underfitting ) 、乃至模型崩溃的缺陷。所以纯粹依靠合成数据,没办法让 AI 模型做到 " 左脚踩右脚上天 "。

与此同时,手握数据的新闻媒体、内容平台、社交网站也在 " 觉醒 ",他们认识到自己手里的数据是 AI 厂商眼中的香饽饽。为此,版权方在全球范围内与 AI 厂商打了一场场的法律战。以至于微软最近开始牵头搞 " 出版商内容市场 "(PCM)计划,试图打造 AI 时代的内容授权集中平台,为 AI 模型训练提供合规的内容支撑。
所以当数据是有价值的,而且不愁卖的情况下,AI 插件的开发者盯上了用户输入内容就丝毫不会让人感到意外了。至于用户的个人可识别信息,价值就更高了。毕竟如何让广告的投放更精准、更高效是营销行业的终极课题之一,直至互联网时代,这个问题也有了答案,当广告平台比用户更了解自己时,广告自然也就可以投其所好,而这便是所谓的用户画像。
此时问题就来了,监管去哪里了呢?但不同于被 App Store、Google Play、微软应用商店严格监管的软件,浏览器插件属于一个被忽视的场景,即便谷歌 Chrome 商店对于插件的审核也极为宽松,所以恶意插件绕过审核的报道隔三差五就会出现。

值得一提的是,AI 插件当下的分发方式并不是围绕 Chrome 商店展开,而是以开发者的个人博客、AI 社群的链接、GitHub 等途径为主。当然,出现这一现象的原因不是开发者有意绕开监管,而是效率至上导致的结果。由于日新月异是当下 AI 圈的主旋律,所以等着自己的 AI 插件被 Chrome 商店审核通过,可能类似的竞品早已遍地开花。
因此先把自己有趣的点子展示给受众,已经成为 AI 开发者普遍的想法,老老实实走审核流程反而缺乏效率。从某种意义上来说,在隐私保护和效率的二选一中,AI 开发者选择了后者。所以当一个缺乏监管,而且用户数据的价值已经有共识的情况下,开发者就难免不动不该动的心思。
说了这么多,一个非常简单的问题就跃然纸上,那就是大家是否愿意用隐私来换便利?超过 50% 的 AI 插件存在收集用户数据的行为,就意味着这是一个极为普遍的现象,用户甚至没办法去赌开发者的良心。

换而言之,屏幕前的你享受 AI 插件带来的高质量翻译、摘要总结等能力,其实都是有代价的。除非选择放弃这样的便利,否则能做到的就只有让渡一部分隐私,但也要坚决守住底线。比如与 AI 插件的交互内容可以给出去,但绝不能容忍 AI 插件收集关于你的信息。例如一个 AI 翻译工具要求你的精准地理位置、查询你的通讯录,显然就非常可疑了。
【本文图片来自网络】


登录后才可以发布评论哦
打开小程序可以发布评论哦