谷歌与美国国防部签署了一项允许五角大楼将谷歌 AI 用于机密工作的协议,在内部员工强烈反对声中完成交割。该协议的安全限制条款措辞模糊,被法律专家指出不具备法律约束力,引发外界对 AI 军事应用边界的深切担忧。
据 The Information 报道,知情人士透露称,该协议允许五角大楼将谷歌 AI 用于 " 任何合法的政府目的 ",这一表述与此前其他 AI 公司与国防部谈判中引发争议的措辞如出一辙。协议同时要求谷歌根据政府要求协助调整其 AI 安全设置与过滤器,条款宽松程度被认为超过 OpenAI 今年 2 月与五角大楼达成的协议。
就在协议签署前夕,逾 600 名谷歌员工联名致信 CEO Sundar Pichai,要求其拒绝该协议,认为拒绝承接机密工作是确保谷歌 AI 不被滥用的唯一途径。此次签约标志着谷歌在军事 AI 合作立场上的重大转向,也令市场重新审视科技巨头与国防部门深度绑定所带来的商业与声誉风险。
员工反对未能阻止协议落地
协议签署前,谷歌内部已出现明显阻力。超过 600 名员工在本周一联名致信 Pichai,要求公司拒绝该协议,并主张只有彻底回避机密工作,才能从根本上防止谷歌 AI 遭到滥用。
这一幕令人联想到八年前的历史。2018 年,谷歌在数千名员工签署反对信后,最终退出了国防部涉及无人机目标识别的 "Maven 项目 "。此次谷歌选择逆员工意愿而行,完成签约,显示出公司在国防业务上的战略取向已发生根本性转变。
谷歌公共部门发言人在声明中表示,新协议是对去年 11 月已签署的非机密用途合同的修订补充。" 我们为能够成为支持国家安全的领先 AI 实验室及科技云企业广泛联盟的一部分而感到自豪," 该发言人表示," 我们仍然致力于公私部门的共识—— AI 不应被用于国内大规模监控或缺乏适当人类监督的自主武器。"
条款宽松程度超越 OpenAI 协议
谷歌此次协议在条款设计上与竞争对手存在明显差异。OpenAI 今年 2 月与五角大楼达成的协议同样允许 " 所有合法目的 " 的使用,但 OpenAI 在公告博客中明确声明保留对其 " 安全体系的完全自主权 ",并列明禁止将 AI 用于大规模监控、自主致命武器系统指挥或 " 社会信用 " 类高风险自动化决策。
谷歌协议则要求公司根据政府要求协助调整 AI 安全过滤器。谷歌公共部门发言人对此解释称,相关过滤器原本面向消费者场景设计,谷歌通常会针对企业客户进行定制调整。
目前,谷歌已与马斯克旗下 xAI 及 OpenAI 一道,成为与五角大楼签署机密 AI 使用协议的科技公司。
安全条款被指不具法律约束力
协议中涉及 AI 使用限制的核心条款措辞引发法律界质疑。据知情人士透露,协议包含如下表述:" 双方同意,AI 系统无意用于、且不应被用于国内大规模监控或自主武器(包括目标选择),除非有适当的人类监督与控制。"
然而,协议随即补充:" 本协议不赋予任何一方控制或否决政府合法运营决策的权利。"
独立智库法律与 AI 研究所高级研究员、律师 Charlie Bullock 指出," 无意用于、且不应被用于 " 这一措辞意味着相关条款 " 在法律上不具任何约束力 "。他表示,这种表述仅代表双方认为此类用途不可取,而非将其认定为违约行为。
纽约大学布伦南司法中心研究 AI 与国家安全的高级顾问 Amos Toh 则指出," 适当的人类监督与控制 " 这一表述,并不必然意味着在目标识别与武器发射之间必须有人类介入。他表示,五角大楼迄今未排除部署全自主武器系统的可能性。" 对武力使用实施适当人类判断的要求,仅仅意味着在武器系统的总体部署方式上存在某种形式的人类参与和决策,"Toh 说。
Anthropic 前车之鉴悬于行业头顶
此次谷歌协议的签署,发生在行业对 AI 军事应用边界争议持续发酵的背景之下。今年 2 月,Anthropic 与五角大楼的谈判公开破裂,导火索正是 Anthropic 拒绝接受 " 任何合法用途 " 条款,并坚持保留针对大规模监控与自主武器两条明确红线。
谈判破裂后,五角大楼将 Anthropic 列为供应链风险,Anthropic 目前正就此在法庭上提出抗争。彼时,逾 900 名谷歌员工与逾 100 名 OpenAI 员工曾联署公开承诺,要求各自雇主与 Anthropic 的两条红线保持一致立场。
如今,谷歌选择签约,意味着这一行业内部的道德共识正在加速瓦解,而安全条款的法律效力存疑,则令外界对 AI 在高风险军事场景中的实际约束机制更加忧虑。


登录后才可以发布评论哦
打开小程序可以发布评论哦