OpenAI 宣布已与美国战争部签署协议,允许其先进 AI 系统在涉密环境中使用。同时,公司公开呼吁五角大楼向其他 AI 企业提供同等合作条件。
根据 OpenAI 发布的声明,协议设定了三条 " 红线 ":不得将其技术用于大规模国内监控,不得用于自主武器系统的独立指挥,也不得用于高风险的自动化决策,例如类似 " 社会信用 " 系统的应用。
OpenAI 表示,协议采用多层安全机制进行约束,包括保留对安全技术栈的完全控制,通过云端部署、由获得安全许可的人员参与操作,以及合同层面的保障措施。同时强调,相关使用还需遵守现有美国法律框架。
在涉及自主武器的条款中,协议明确指出,只要法律或国防部政策要求人类控制,AI 系统不得独立指挥武器系统。任何在自主或半自主系统中使用 AI 的行为,都必须经过严格的验证与测试。
值得注意的是,OpenAI 称签署协议的动机之一是希望缓和五角大楼与美国 AI 实验室之间的紧张关系。这一表态被普遍解读为针对 Anthropic 与美国政府之间的争议。
此前,Anthropic 因拒绝接受五角大楼的某些条款,被特朗普政府列为 " 国家安全供应链风险 "。美国国防部长宣布,所有与军方有业务往来的承包商不得与 Anthropic 开展商业合作。这一标签过去从未用于美国本土企业。
政府方面表示,军队的命运应由民选领导人决定,而非科技公司高管。但 OpenAI 在问答环节中明确表示,不认为 Anthropic 应被列为供应链风险,并已向政府表达立场。
OpenAI CEO Sam Altman 在社交平台上称,这一做法是 " 极其可怕的先例 ",并表示希望事情能有更好的解决方式。他指出,虽然 Anthropic 的处理方式存在问题,但政府作为更强势一方,应承担更大责任。
Altman 还表示,公司签约的目的在于 " 降温 ",因为若供应链风险认定被全面执行,将对整个 AI 行业和美国本身造成不利影响。
截至目前,Anthropic 除表示将通过法律途径申诉外,尚未作进一步公开回应。
这场围绕军方合作与行业监管的争议,正在让 AI 行业与政府之间的关系变得更加复杂。技术、政策与国家安全之间的界限,正在被重新划定。
(AI 普瑞斯编译)


登录后才可以发布评论哦
打开小程序可以发布评论哦