环球人物杂志 9小时前
他把AI模型卖给美军,如今却害怕成为“末日博士”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

· 达里奥 · 阿莫迪。(美国哥伦比亚广播公司)

作者:徐力婧

美以对伊朗的军事行动已持续数日,一则新闻再次吸引了全球的目光。

据《华尔街 · 日报》报道,美军在对伊朗的大规模轰炸行动中,用上了美国 AI 公司 Anthropic 旗下的大语言模型克劳德(Claude)。

知情人士证实,包括美国中央司令部在内的全球各司令部,都在使用 Anthropic 的 AI 工具。对此,英国《卫报》称," 这是危险的转折点 " 。

这已不是 AI 第一次走上战场。今年 1 月美军抓捕委内瑞拉总统马杜罗时,克劳德就已被用于军事行动。而这也引发了美国政府与 Anthropic 之间持续数月的争执——关于五角大楼究竟该如何使用 AI 模型。

而站在风暴中心的,是 Anthropic 创始人兼首席执行官达里奥 · 阿莫迪。

01

当导弹能像人一样思考

据《华尔街 · 日报》报道,克劳德主要服务于指挥部门,承担情报分析、目标识别以及战斗场景模拟等任务。

· 当地时间 3 月 2 日,美以联合对伊朗发起的军事行动仍在持续,一名男子走过德黑兰尼卢法广场附近受损的居民楼。(法新社)

Anthropic 与美军的合作始于 2024 年 11 月。同一时期,美国数据分析公司 Palantir 和亚马逊网络服务也开始为美军提供技术支持。

据《华盛顿邮报》报道,由 Palantir 开发的军方 " 梅文智能系统 ",能从卫星、监控及其他情报来源的数据中提取关键信息。而被集成进这套系统的克劳德模型,则负责对敏感情报进行分析处理。目前,克劳德已成为美军许多部门使用的日常工具。

对美军而言,AI 带来的最大改变,是战争节奏本身。《战争律师》一书的作者克雷格 · 琼斯在接受英国《卫报》的采访时提到,在一战和越南战争期间,美军从空中侦察到执行轰炸任务通常需要 6 个月。但现在,整个周期已经被 AI 大幅压缩。"AI 系统会给出打击目标的建议,速度远超人类思维。"

新美国安全中心执行副总裁保罗 · 沙雷则向路 · 透社介绍,对美军而言,AI 已经从理论假设走向真实战场。" 这让美军能够以机器速度,而非人类速度来制定打击方案。"

在此次对伊军事行动中,以军也用上了 AI 技术。其使用的新型空对地巡航导弹 " 破冰者 ",深度融合了 AI 算法。它能像人一样思考,自主规划飞行路径,精准辨别目标,甚至可以在空中与其他导弹实时沟通、分工协作。

· 美国海军托马斯 · 哈德纳号驱逐舰发射战斧导弹,支援美以对伊实施的 " 史诗怒火 " 行动。(盖蒂图片社)

此外,据《财富》杂志报道,AI 目前也出现在了其他战场上。以色列在巴以冲突期间曾利用 AI 识别哈马斯目标。而在俄乌冲突中,自主化无人机已经投入使用,俄罗斯和乌克兰都采用了不同形式的自主技术。

对于 AI 介入军事行动,外界普遍感到不安。以色列《耶路撒冷邮报》评价,将大语言模型融入战争,标志着现代战争的重大转变," 最初用于编写代码和诗歌的工具,如今已成为致命的武力 "。

02

" 要么配合,要么出局 "

在此次美以对伊朗的军事行动中,Anthropic 公司的 AI 模型扮演了关键角色。然而颇具戏剧性的是,就在空袭开始前几个小时,这家公司刚刚被美国国防部和特朗普双双 " 拉黑 "。

据英国广播公司报道,Anthropic 与美国当局的紧张关系 " 可以追溯到几个月前 "。

今年 1 月,美军在抓捕委内瑞拉总统马杜罗的突袭行动中,使用了克劳德模型。Anthropic 随后提出反对,声明其使用条款明确禁止将 AI 用于暴力目的、武器研发或监控活动。此后双方关系持续恶化,开始了长达数周的谈判。

据美国有线电视新闻网报道,谈判中 Anthropic 在两个问题上寸步不让:一是 AI 控制武器,二是 AI 对美国公民的大规模监控。他们认为,AI 目前还不足以可靠地操控武器,而且也无法律规范大规模监控的行为。

面对 Anthropic 的坚持,美国国防部长赫格塞斯下了最后通牒。

· 赫格塞斯。(盖蒂图片社)

当地时间 2 月 24 日,他与阿莫迪会面,要求对方放宽 AI 模型的安全限制,并给出了最后期限:2 月 27 日前,美军必须获得克劳德模型的无限制使用权,否则公司将被列入政府 " 供应链风险 " 黑名单。进入黑名单意味着,所有签有军事合同的公司,此后不得在任何军事工作中使用 Anthropic 的产品。

26 日,阿莫迪公开发文,表明立场不变。" 即便是当今最先进、最强大的 AI 系统,其可靠性也不足以支撑完全自主武器的运作。" 他在文中写道," 我们不能昧着良心答应美军的要求 "。

阿莫迪发文不久后,五角大楼给出了回应。一名美国国防部官员对媒体表示,Anthropic 必须做出选择," 要么配合,要么出局 ",否则国防部将强制使用克劳德模型,无论 Anthropic 是否愿意。

· 阿莫迪。(盖蒂图片社)

紧接着,特朗普下令所有联邦机构立即停用克劳德。他还在真实社交(特朗普于 2021 年自创的社交媒体平台)上痛批 Anthropic,称其为 " 由一群不懂现实世界的人运营的左翼疯子公司 "。

几小时后,美军战机从部署在中东的 " 林肯号 " 和 " 福特号 " 航母以及海外军事基地起飞,与以色列空军一起,向伊朗发动了大规模空袭。

03

" 技术的青春期 "

Anthropic 刚被踢出局,竞争对手立刻补上了空缺。特朗普禁令发布几小时后,美国 AI 公司 OpenAI 就与五角大楼达成协议,开始向机密系统提供 AI 技术。

与美国当局 " 硬刚 " 的阿莫迪,实际上与 OpenAI 的渊源颇深。

阿莫迪出生于 1983 年,本科毕业于美国斯坦福大学物理学专业,后取得美国普林斯顿大学生物物理学博士学位。毕业后,他曾在百度硅谷 AI 实验室工作,后加入谷歌从事语音识别研究。

2016 年,他加入 OpenAI,一路做到研究副总裁,主导开发了 GPT-2 和 GPT-3 大语言模型。然而在 2021 年,他与 OpenAI 创始人萨姆 · 奥特曼在 AI 安全理念及商业化方向上产生了分歧。

此后,阿莫迪带着包括妹妹丹妮拉 · 阿莫迪在内的十多名公司核心成员离职,创办了 Anthropic,并推出克劳德系列模型。

· 阿莫迪(左)与妹妹丹妮拉。(盖蒂图片社)

离开 OpenAI 后,阿莫迪与奥特曼的分歧并未消解。就在今年年初,他与奥特曼在新德里的一场 AI 峰会上同台,但彼此拒绝握手、没有眼神交流。他曾在播客里直言," 不相信奥特曼能让 AI 不走弯路 "。

· 2026 年 2 月,在新德里举行的 "AI 影响力峰会 " 上,印度总理莫迪(左)与奥特曼(中)、阿莫迪等 AI 企业负责人合影。(盖蒂图片社)

两人最大的分歧,还是在于对 AI 安全的担忧。今年 1 月,阿莫迪在题为《技术的青春期:直面并克服强大 AI 的风险》文章中警告 "AI 海啸将至 ",但社会远未准备好。他认为,当 " 智力、工具规模、时间优势 " 叠加,AI 将是一个会重写安全、经济与权力结构的变量。他担心,一旦强大的 AI 被大型组织掌控,将对外形成压倒性优势,带来不可预估的后果。

然而也有观点指出,阿莫迪的 AI 恐惧论实际上是刻意利用科技伦理问题,打压竞争对手。

今年 2 月,阿莫迪曾公开指控 DeepSeek 等三家中国 AI 企业发动 " 工业级蒸馏攻击 "," 抽取 " 克劳德模型能力。但在 AI 领域," 蒸馏 " 本就是将大参数模型迁移到小模型的常用技术,类似于模仿学习,而非抄袭。而阿莫迪此番发言却把这一技术污名化,试图抹黑中国同行。

从这个角度看,阿莫迪似乎并非单纯追求 AI 的正确发展,而是在争夺谁有做 AI 的权利。正如普利策奖得主、国家安全记者斯宾塞 · 阿克曼所指出的,阿莫迪在最初与美国军方签订协议时就忽略了科技伦理问题。阿克曼批评道:" 当你收了末日博士(漫画中的反派角色)的钱,给他制造零件时,你难道不知道他要造的就是末日机器人吗?"

有评论认为,阿莫迪坚守技术伦理底线的选择,固然有科学家式的理想与坚持,但他对中国 AI 公司的无端敌意与双重标准,又让这份坚守失去了应有的中立与格局。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 美军 美国 伊朗
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论