【太平洋科技资讯】近日,AI 安全公司 DeepKeep 发布了一份针对 Meta 公司 Llama 2 大语言模型的风险评估报告。在 13 个风险评估类别中,Llama 2 仅通过了 4 项测试,表明该模型存在严重问题。
在测试中,DeepKeep 发现 Llama 2 的幻觉问题最为严重,幻觉率高达 48%。这意味着模型有明显的编造回答或提供错误信息的倾向,向用户传递的错误信息越多。这可能会对用户造成误导,甚至可能引发安全问题。
除了幻觉问题,Llama 2 大语言模型还存在注入和操纵等问题。根据测试结果,攻击者可以通过 " 提示注入 " 的方式操纵 Llama 的输出,这意味着攻击者可以 " 戏弄 "Llama,将用户引导到恶意网站。在 80% 的场景下,这种操纵行为是可行的。
DeepKeep 表示,这些问题的存在表明 Llama 2 大语言模型在安全性方面存在重大隐患,需要采取措施来改进和加强其安全性。对于企业和个人用户来说,使用这种模型时需要谨慎,并采取适当的安全措施来保护自己的数据和隐私。
DeepKeep 的评估报告再次强调了人工智能安全的重要性。随着人工智能技术的不断发展,我们需要不断关注和解决相关安全问题,以确保人工智能技术的健康发展。
登录后才可以发布评论哦
打开小程序可以发布评论哦