AIPress.com.cn 报道
4 月 9 日消息,据 Axios 报道,OpenAI 正在完成一款具备更强网络安全能力的新模型,并计划采取 分阶段发布策略,初期仅向少数企业开放访问权限。知情人士表示,这一做法类似于 Anthropic 近期对其 Mythos Preview 模型所采取的有限发布方式。
报道称,随着人工智能在自动化能力和网络攻击技术方面的能力不断提升,AI 公司开始对模型公开发布可能带来的安全风险保持更为谨慎的态度。一些业内人士认为,相关能力已经接近关键拐点,如果被恶意使用,可能对关键基础设施造成潜在威胁。
今年 2 月,在推出 GPT-5.3-Codex(OpenAI 迄今在网络安全推理方面能力最强的模型之一)后,OpenAI 启动了名为 "Trusted Access for Cyber" 的试点计划。该计划采取邀请制,为参与机构提供访问权限,使其能够使用更具网络安全能力的模型,以支持合法的防御性研究工作。OpenAI 同时向参与机构提供 1000 万美元的 API 额度 用于相关研究。
过去一年,多名前政府官员和网络安全专家持续警告,先进 AI 模型在错误使用情况下,未来可能被用于自动化攻击关键基础设施,包括供水系统、电网以及金融系统等。
不过,一些安全专家认为,即便企业限制模型发布范围,也难以完全阻止相关能力扩散。SANS Institute 首席 AI 官 Rob T. Lee 表示,AI 模型已经具备自动枚举代码、发现旧代码库漏洞的能力,这类能力已经客观存在。
Palo Alto Networks 首席安全情报官 Wendi Whitmore 也指出,即使部分公司暂缓发布相关模型,未来数周或数月内,类似能力仍可能出现在其他模型之中。
在业内看来,限制模型发布范围的做法,与网络安全领域长期采用的 " 负责任漏洞披露 " 机制类似,即在公开漏洞前先向受影响机构有限披露,以降低安全风险。
目前尚不清楚 OpenAI 未来是否会将这一新模型全面开放。Anthropic 此前表示,其 Mythos Preview 模型不会公开发布,但未来可能在具备更严格安全措施的情况下推出其他版本。与此同时,一些研究人员指出,当前公开可用的 AI 模型已经具备发现部分软件漏洞的能力,相关安全问题仍在持续受到关注。(AI 普瑞斯编译)


登录后才可以发布评论哦
打开小程序可以发布评论哦