新浪科技 5小时前
谄中东战争,美国这对AI宿敌彻底撕破了脸?
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

本文来自微信公众号:  新浪科技  ,作者:郑峻,原文标题:《谄媚、献金、说谎?中东战争,美国这对 AI 宿敌彻底撕破了脸?|硅谷观察》

本就动荡的中东地区重燃战火,很可能是 AI 时代的第一次全面战争。

不久前,美国和以色列对伊朗发起了代号为 " 史诗之怒 " 的联合军事行动,对德黑兰政府高层、核设施、导弹基地、防空系统以及海军舰艇进行了全方位轰炸袭击。作为回击,伊朗也向设有美军基地的周边 9 个国家发起导弹与无人机轰炸。

近日,美国战争部与 AI 行业领头羊 OpenAI 签署了一份将人工智能部署于军事用途的合作协议。这两件事或许只是时间上的巧合,但巧合背后或许却具有历史意义。

而 OpenAI 之所以会接下这个项目,是因为他们的直接竞争对手 Anthropic 拒绝了美国战争部的最后通牒,拒绝向美军全面开放 AI 使用,拒绝将 AI 用于监控美国民众以及自主武器系统,从而被美国政府全面拉黑。

就在昨天,媒体曝光了 Anthropic 一份 1600 字的内部备忘录,让外界全面了解了这场 AI 公司与美国政府首次里程碑式的对峙,也揭示了这场冲突背后远比技术分歧更复杂的政治逻辑。

Anthropic CEO 达里奥 · 阿莫迪在备忘录中嘲讽,自己与美国政府关系恶劣是因为没有像同行那样给白宫捐款以及没有向白宫吹捧恭维。他继续指责同行,在 OpenAI 与战争部合作协议背后,所谓的安全防范只是逢场作戏。

一、美军指定 AI 服务商

为什么是 Anthropic?尽管 Anthropic 并不是 AI 行业的最大巨头,消费端用户基数与 OpenAI 及谷歌差距明显,但他们却是企业市场当之无愧的领头羊。在企业级 LLM 市场,Anthropic 的市场份额高达 32%,排名第一;而在编程与智能工作这个最具价值的细分市场,Anthropic 的 Claude 则占据着 70% 市场份额的压倒性优势。

Anthropic 的年化收入已经达到 190 亿美元,其中 80% 来自企业客户。就在上个月,Anthropic 完成了由 GIC 领投的 300 亿美元 G 轮融资,估值达到 3800 亿美元。投资者普遍认为其在 " 治理合规 " 和 " 机构信任 " 方面的护城河是谷歌和 OpenAI 难以逾越的。

虽然 OpenAI、谷歌和 xAI 都拿到了美国战争部的 2 亿美元合同,但 Anthropic 的 Claude 却是唯一一个被允许部署在美军最高级别涉密网络上的大模型。他们与大数据服务商 Palantir,再加上亚马逊 AWS 云服务,相当于美军的 AI 铁三角。

据事后披露,美军就是利用 Claude 的逻辑推理能力,在 Palantir 的平台上快速处理截获的各种情报与卫星图像,交叉比对旅行记录和财务数据,最终确认马杜罗的实时位置。最终美军将马杜罗强掳至纽约,导致数十名古巴和委内瑞拉士兵死亡,自己却无人阵亡。

此次美国与以色列对伊朗发起大规模袭击,同样使用了 Claude 与 Palantir 的组合,用于情报评估、目标识别和战场场景模拟。换句话说,美国政府周五下令封禁 Claude,周六攻击伊朗用的还是 Claude。

这对五角大楼来说同样是个大问题。直到最近,Claude 仍是唯一被允许进入军方机密系统的 AI 工具。政府官员表示,Claude 在某些方面比其他替代方案更好,也承认如果要把 Anthropic 的工具从现有系统中移除,将会是一个非常混乱的过程。

二、两条 AI 技术使用底线

既然 Claude 已经被用于美军对外作战而且效果显著,为什么他们会与美国战争部闹翻?主要就是两条 AI 技术使用底线。

Anthropic 在与战争部的谈判中,坚持在合同中写入两项明确禁止条款:一是禁止将其 AI 用于对美国公民的大规模国内监控,二是禁止将其 AI 用于完全自主的致命武器系统。这两项要求,战争部都拒绝以明文写入合同。战争部的立场是:AI 可用于 " 任何合法目的 "。

阿莫迪在备忘录中具体写道,战争部提出了最后一个要求:删掉合同中关于 " 批量获取数据分析 " 的限制性表述。这正是 " 合同中与我们最担忧的场景完美对应的那一行 " —— AI 利用大规模汇集的美国公民通信数据进行训练,实现国内大规模监控。Anthropic 拒绝在这一条上作出任何让步。

双方为此僵持不下。在设定的最后期限过后,美国战争部随即宣布 Anthropic 为 " 国家安全供应链风险 "。而特朗普总统则公开称 Anthropic 为 " 激进左翼、政治正确公司 "。而仅仅数小时之后,OpenAI 就宣布签署了被 Anthropic 拒绝的合同。

支持 Anthropic 的科技行业团体已经行动起来——英伟达、谷歌等 Anthropic 投资方组成的行业联盟向美国战争部发函,对将一家美国公司认定为供应链风险表示关切,这一认定通常是针对与外国对手有关联的企业的。Anthropic 表示将在法庭上挑战这一认定。

考虑到 Anthropic 八成收入来自企业客户,被列入美国政府的 " 供应链风险 ",可能会让这家 AI 初创公司损失惨重,更会给他们今年预定的首次公开募股带来重大风险。因为被列入美国政府黑名单之后,诸多持有政府合同的企业客户只能被迫放弃 Anthropic 的产品。

三、明着赞赏,迅速接盘

尽管 OpenAI CEO 山姆 · 奥特曼当天还在公开场合支持 Anthropic 坚守自己的安全底线,赞赏 Anthropic 重视安全,但迅速接过了 Anthropic 放弃的战争部合同。这种无缝衔接和 " 假惺惺 " 表态显然让阿莫迪非常不满。

值得一提的是,Anthropic 与 OpenAI 本就存在历史渊源与宿怨。Anthropic 的创始团队主要来自 OpenAI,他们由于对奥特曼的产品与商业方向不满,因而选择离开自立门户。因为 OpenAI 推出广告计划,Anthropic 还斥资千万美元在超级碗打广告嘲讽对手,引发奥特曼愤怒回击。

更为有趣的是,在上个月的印度 AI 峰会上,奥特曼与阿莫迪正好被主办方安排站在一起,两人互相无视对方,甚至无视印度总理莫迪的要求,连礼节性地握手都没有。现场气氛相当尴尬。

此次战争部合同事件,阿莫迪更是异常愤怒。他在内部备忘录中写道,OpenAI 的交易不过是 " 安全剧场 ",奥特曼 " 把自己呈现为和平缔造者和交易撮合者 ",但那是 " 彻底的谎言 "。

需要解释一下," 安全剧场 " 这个词最早由计算机安全专家布鲁斯 · 施奈尔在其著作《超越恐惧》中创造,专门用来描述那些给人 " 更安全的感觉 "、但实际上对安全几乎没有实质改善的措施。

阿莫迪的意思是,OpenAI 与战争部签的 AI 合同,列了几条听起来很负责任的 " 红线 ",但这些条款全都依赖政府自己解释什么叫 " 合法 ",没有任何可独立核实、强制执行的机制,并不存在 Anthropic 那样的坚守底线。

看得出来,阿莫迪对 OpenAI 极度不满。他甚至直言不讳地表示," 我们之所以被战争部和特朗普政府针对,真正的原因是:我们没有给特朗普捐款,没有像他们那样对总统大加赞美,我们支持 AI 监管,我们真正坐守了 AI 红线,而不是像他们一样制造‘安全剧场’来安抚员工。"

他指的是去年特朗普就职典礼时,奥特曼以个人名义捐款了 100 万美元,而 OpenAI 总裁格雷格 · 布罗克曼随后还向支持共和党的 MAGA 超级政治行动委员会捐款 2500 万美元。此外,奥特曼多次在接受公开采访时对总统大加赞赏,更随着白宫一道出访。

虽然诸多超级富豪和科技巨头都争相讨好本届政府,在捐款方面更是一掷千金,但相比之下,Anthropic 始终与政府保持着距离。这也是阿莫迪指责 OpenAI 的底气所在。

四、解释遭受普遍质疑

OpenAI 当然不愿意遭受指责。该公司在官网发布长文,声称其与战争部的合同包含三条 " 红线 ":不得用于大规模国内监控、不得在需要人类控制的情况下指挥自主武器系统、不得用于需要人类审批的高风险自主决策。

奥特曼本周承认 OpenAI 最初合同确实存在缺陷,并宣布公司已经重新谈判,达成了他所称的更强安全保障。他随后还专门强调,他们补充修订了合同语言,明确不得包括针对美国国内的监控。

然而,Anthropic 却再次打脸奥特曼,指出了这个说法的根本漏洞:OpenAI 的合同允许政府将 AI 用于 " 所有合法目的 ",而判断什么 " 合法 " 的权力,解释权在于美国政府自身。

不仅是 Anthropic 质疑奥特曼的解释,诸多行业分析人士也不相信 OpenAI 会坚守底线。很多人提出,如果美国战争部改变了态度,接受了 OpenAI 设置的三条红线,他们此前就不会和 Anthropic 闹翻。

OpenAI 前安全部门负责人史蒂文 · 阿德勒在 X 上写道,OpenAI" 希望你相信国家情报局被排除在他们的合同之外 ",但没有任何强有力的证据支撑这一说法,公众为何应该相信?

批评者也同样指出:美国情报机构在棱镜监控项目中,正是以 " 合法 " 为由,在《外国情报监视法》的模糊框架下,将数百万普通美国公民的通讯数据一网打尽。Anthropic 并没有因为这些 " 合法 " 就放弃自己的标准。而 OpenAI 则模糊了这一边界。

更深层的问题在于:" 人类监督 " 究竟意味着什么?OpenAI 前地缘政治团队负责人萨拉 · 肖克在 Substack 上指出,国防工业界对于自主武器中 " 充分的人类监督 " 尚无共识定义。

一名士兵对着 AI 的推荐目标点一下 " 确认 ",算不算人类监督?还是必须有人逐一审阅每个打击决策?在当代战场的时间压力下,这个问题的答案可能决定数千人的生死。

值得一提的是,96 名 OpenAI 员工在公司宣布签约前联署公开信,要求管理层 " 继续拒绝战争部当前关于允许使用我们的模型进行国内大规模监控和在没有人类监督的情况下自主杀人的要求 "。

五、AI 战争边界模糊

AI 在现代战争中的主要应用路径清晰可见:情报快速汇总、目标生成、战场态势感知、后勤与指挥决策辅助。这些功能单看似乎只是 " 辅助工具 ",但当它们被串联起来,构成一条从感知到杀伤的完整链条时,性质已经根本改变。而这正是 Claude 与 Palantir 组合的威力所在。

从传感器数据到 AI 解读,再到目标选择,再到武器激活;其中的一个关键风险是:这整个链条可能在几乎没有人类控制或意识的情况下完成。

这不是假设性场景。以色列在加沙冲突中广泛使用的 Lavender 系统,被前情报官员描述为一台每天可以自动生成数百个打击目标的 AI 机器。操作流程中,人类审核每个目标的平均时间不足一分钟,有时甚至不到 20 秒。目标一旦生成,即进入打击流程。换言之,人类监督已经变成了橡皮图章,而非实质辨别。

除了 AI 用于作战自动化,这场争议还留下了几个无法回避的根本性问题。

谁有权定义 " 合法 "?如果 AI 使用边界由政府自行解释,那么安全护栏就不是护栏,而是政治工具。Anthropic 的坚持,至少是在用合同条文来固化一条写在纸上的边界,即便这条边界不完美。而 OpenAI 的合同处理方式,则模糊了这一红线。

科技公司是否有能力和勇气对抗来自全球最强势政府的压力?

每一次,科技公司都在舆论压力、商业利益和政府压力之间博弈。只不过,他们的犹豫越来越少。

2018 年,谷歌 Maven 项目曾引发 4000 名员工联名抗议,最终谷歌宣布不再续约,但最终微软与亚马逊接过了这个项目。2019 年,微软员工抗议向美军提供 HoloLens 增强现实头盔用于战场;2024 年,谷歌员工再次抗议 Project Nimbus 以色列云计算合同,但没有任何效果。

但这一次,当 OpenAI 签下战争部合同的时间点,与美以联合空袭德黑兰的时间点几乎完全重叠,震撼是前所未有的。Anthropic 的这次抗拒,无论最终谈判结果如何,展示了另一种可能:至少在某一时刻,有一家公司选择了不妥协。

但他们不配合,总会有同行愿意做。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

美国 美军 美国政府 谷歌 白宫
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论