太平洋电脑网 04-18
13项风险评估只通过4项!Meta公司大语言模型被曝存在严重问题
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

【太平洋科技资讯】近日,AI 安全公司 DeepKeep 发布了一份针对 Meta 公司 Llama 2 大语言模型的风险评估报告。在 13 个风险评估类别中,Llama 2 仅通过了 4 项测试,表明该模型存在严重问题。

在测试中,DeepKeep 发现 Llama 2 的幻觉问题最为严重,幻觉率高达 48%。这意味着模型有明显的编造回答或提供错误信息的倾向,向用户传递的错误信息越多。这可能会对用户造成误导,甚至可能引发安全问题。

除了幻觉问题,Llama 2 大语言模型还存在注入和操纵等问题。根据测试结果,攻击者可以通过 " 提示注入 " 的方式操纵 Llama 的输出,这意味着攻击者可以 " 戏弄 "Llama,将用户引导到恶意网站。在 80% 的场景下,这种操纵行为是可行的。

DeepKeep 表示,这些问题的存在表明 Llama 2 大语言模型在安全性方面存在重大隐患,需要采取措施来改进和加强其安全性。对于企业和个人用户来说,使用这种模型时需要谨慎,并采取适当的安全措施来保护自己的数据和隐私。

DeepKeep 的评估报告再次强调了人工智能安全的重要性。随着人工智能技术的不断发展,我们需要不断关注和解决相关安全问题,以确保人工智能技术的健康发展。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

智慧云

智慧云

ZAKER旗下新媒体协同创作平台

相关标签

ai 人工智能 风险评估 人工智能技术
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论