IT之家 前天
ChatGPT再现安全漏洞:研究者利用猜谜游戏诱骗其生成Win10密钥
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

IT 之家 7 月 14 日消息,近日,安全研究员兼 AI 漏洞猎人 Marco Figueroa 披露,他成功利用一种 " 猜谜游戏 " 的方式,诱导 OpenAI 的 ChatGPT-4 生成了 Windows 10 的产品密钥。这是继 " 奶奶去世 " 诱骗法曝光后,AI 模型防护机制再度被绕过的案例。

IT 之家注意到,此前有用户通过编造 " 奶奶去世 " 故事,试图让 ChatGPT" 心软 ",在安抚性摇篮曲中夹带 Windows 7 的激活密钥。尽管这些密钥普遍无效,但暴露了 AI 模型的内容控制漏洞。

此次 Figueroa 的攻击方式更具针对性。他设置了一个猜谜游戏的情境:ChatGPT 需 " 在心中 " 记住一串真实存在的 Windows 10 密钥,用户则通过提问猜测。当用户宣布 " 我放弃 " 时,ChatGPT 便需直接给出完整的字符串。

在对话过程中,Figueroa 还利用 HTML 标签隐藏关键词,如 "Windows 10 序列号 ",绕过了模型针对敏感词的审查。

这位研究人员表示,他利用猜谜游戏作为一种逻辑操纵手段,让 ChatGPT 脱离常规模式,生成 Windows 10 密钥。据 Figueroa   称," 攻击中最关键的一步是‘我放弃’这句话,它起到了一个触发作用,迫使人工智能透露了之前隐藏的信息。通过将其设定为游戏结束,研究人员诱使人工智能认为自己有义务用这串字符做出回应。"

值得警惕的是,虽然生成的密钥多为网上早已泄露的旧激活码,但其中一组竟包含富国银行(Wells Fargo Bank)的私钥。此外,Figueroa 提醒,曾有 API 密钥误传至 GitHub,这类泄露数据可能被纳入 AI 模型的训练集,带来未知隐患。

研究员指出,AI 模型依然过于依赖关键词识别,对复杂上下文缺乏足够的理解力,成为此次被攻破的核心原因。他呼吁,应在 AI 系统中构建多层次的验证与防护机制,增强模型的情境感知能力,以抵御此类逻辑操控攻击。

与此同时,微软的 Copilot 也被曝曾生成非法激活 Windows 11 的脚本教程,所幸漏洞已被微软封堵。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 人工智能 it之家 微软 windows 10
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论