盖世汽车 02-06
卡耐基梅隆大学、博世和谷歌的研究人员联手变革人工智能安全 利用增强深度学习模型提高对抗鲁棒性
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

盖世汽车讯 据外媒报道,来自谷歌(Google)、卡内基梅隆大学(Carnegie Mellon University)和博世人工智能中心(Bosch Center for AI)的研究人员提出一种增强深度学习模型的对抗鲁棒性的开创性方法,是一项重大进步并具有实际意义。

这项研究的主要结论可以围绕以下几点:

通过预训练模型轻松实现鲁棒性:该研究展示了一种简化的方法,可以实现针对 2 范数有界扰动的顶级对抗鲁棒性,仅使用现成的预训练模型。这项创新极大地简化了针对对抗性威胁强化模型的过程。

去噪平滑方面的突破:将预训练的去噪扩散概率模型与高精度分类器相结合,团队在 ImageNet 上实现了对抗性扰动的突破性 71% 准确率。这一结果比之前的认证方法显著提高了 14 个百分点。

实用性和可访问性:无需复杂微调或再训练即可获得结果,使得该方法非常实用且可用于各种应用,特别是那些需要防御对抗性攻击的应用。

去噪平滑技术解释:该技术涉及两个步骤:首先应用降噪器模型来消除添加的噪声,然后使用分类器来确定已处理输入的标签。此过程使得将随机平滑应用于预训练分类器变得可行。

利用去噪扩散模型:该研究强调了在图像生成中广受好评的去噪扩散概率模型对于防御机制中去噪步骤的适用性。这些模型有效地从噪声数据分布中恢复高质量的去噪输入。

在主要数据集上经过验证的有效性:该方法在 ImageNet 和 CIFAR-10 上显示出令人印象深刻的结果,即使在严格的扰动规范下,其性能也优于之前训练的自定义降噪器。

开放获取和可重复性:为了强调透明度和进一步研究,研究人员链接到一个 GitHub 存储库,其中包含实验复制所需的所有代码。

由于深度学习模型中的对抗鲁棒性是一个新兴领域,因此确保人工智能系统针对欺骗性输入的可靠性至关重要。人工智能研究的这一方面在从自动驾驶汽车到数据安全等各个领域都具有重要意义,其中人工智能解释的完整性至关重要。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

人工智能 深度学习 谷歌 博世 大学
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论