加星标,才能不错过每日推送!方法见文末插图
2026 年刚开场两个月,美军就开展了两场军事行动,它们不仅是地缘政治的惊天剧变,更是人类战争史上的技术分水岭,因为在这些势如破竹的军事行动背后,都有 AI 技术参与其中。
在过往的战争中," 观察、调整、决策、行动 " 的军事决策体系受限于人类的处理速度,往往需要数小时甚至数天。而在 AI 驱动的算法战争中,这个周期正在被压缩到数秒甚至数毫秒。
当一方的决策时钟运行在人类速度,而另一方运行在机器速度,两者之间的对抗,胜负在开局时便已注定。
撰文 | REN
2026 年刚刚过去两个月,我们就已经目睹了足以改写世界格局的两件大事。
1 月 3 日,美国陆军特种部队从海面超低空飞入加拉加斯,在三小时内抓走了委内瑞拉总统尼古拉斯 · 马杜罗(Nicol á s Maduro)。
2 月 28 日,美国和以色列联合发动代号 " 史诗狂怒 "(Operation Epic Fury)的大规模空袭,将伊朗最高领袖哈梅内伊(Ayatollah Ali Khamenei)炸死,并消灭了约 40 名伊朗政府核心高层。
这两场行动不仅是地缘政治的惊天剧变,更是人类战争史上的技术分水岭,因为在这些势如破竹的军事行动背后,都有同一套 AI 系统参与其中。
与此同时,一场因 AI 军事化而在华盛顿与硅谷之间爆发的权力博弈,也在同一周内到达了高潮:AI 初创公司 Anthropic,在拒绝为五角大楼移除 AI 技术安全护栏之后,被特朗普政府以一个通常用于制裁他国实体的法律条款列为 " 国家安全供应链风险 ",并被驱逐出美国的军事生态系统。
这一切合在一起,构成了本世纪迄今为止关于 AI 与人类命运最重要的一幅图景。
从实验室到战场
要理解当下正在发生的一切,有必要先回顾 AI 是如何进入美国军方视野的。
AI 在军事上的应用并非横空出世。早在 2017 年,美国国防部便启动了一个名为算法战跨职能小组(Algorithmic Warfare Cross-Functional Team)的项目,对外称为 Project Maven。项目的初衷很简单,就是用深度学习神经网络帮助人类区分哪些无人机画面里有车辆、有武装人员,替代每天盯着屏幕大海捞针的情报分析员。
然而,当谷歌公司因旗下工程师集体抗议,而于 2018 年宣布不再续签 Maven 合同时,这一举动与其说阻止了 AI 军事化,不如说是揭开了科技行业与军工复合体之间注定要爆开的裂缝。
彼时的许多人恐怕没有料到,短短八年之后,AI 工具不再只是分析无人机视频,而是已经作为核心决策支撑工具,进入了美国军方最机密的网络,直接参与了牵涉多个国家、成千上百条人命的高价值军事行动。
这中间发生了什么?答案是大语言模型(Large Language Model)的崛起。
Project Maven 在这种技术革命中迅速完成了质的升级。美国国防承包商 Booz Allen Hamilton 主导了将大模型深度集成到 Maven 系统的关键工作;英国公司 Anduril 与美国公司 Palantir 建立了合作伙伴关系,将 Anduril 的 Lattice Mesh 战场感知网络与 Maven 的智能系统及 Palantir 的 AI 平台打通,实现战术传感器数据向 AI 支持的分析师工作流的无缝转移。
在这套高度集成的体系下,从卫星图像到信号情报,再到地面传感器的一切数据,都可以被自动汇聚、过滤、关联,最终生成可以直接供指挥官使用的目标建议。

美国国家地理空间情报局对 Maven 项目的介绍(机翻)| 图源:NGA 官网
据报道,这一系统使得一名高级指挥官每小时能做出 80 个目标打击决策,这个数字在非 AI 时代只有每小时 30 个,现在效率直接翻倍。负责 Maven 项目的美国国家地理空间情报局(NGA)甚至规划,到 2026 年 6 月,Maven 系统将开始向作战指挥官直接传输 "100% 由机器生成 " 的情报。
但即便在这个背景下,AI 技术在军事领域的应用速度仍令行业人士震惊。2024 年 6 月,Anthropic 公司开发的 Claude,成为了第一个被部署在五角大楼机密网络上的商业大语言模型。
这道闸门一旦打开,便再也无法关上。
两场军事行动,同一套 AI 技术
时间快进到 2026 年 1 月 3 日凌晨,美国陆军第 160 特种作战航空团的直升机,从距离委内瑞拉海岸线超低空掠过海面,悄无声息地进入了加拉加斯上空。
短短三小时后,委内瑞拉总统马杜罗和他的妻子西莉亚 · 弗洛雷斯(Cilia Flores)就已经被美军突击队员抓住,押上了去往纽约的飞机。
2 月 28 日,美国又联合以色列发起了代号 " 史诗狂怒 " 的军事行动,目标直指包括哈梅内伊在内的伊朗领导层:美以情报人员掌握了他将于当天上午在德黑兰办公室与核心幕僚召开会议的内幕。
最终结果我们已经知道了。哈梅内伊被炸死,他的女儿、女婿和孙子也同时丧命。与此同时,伊朗国防部长阿齐兹 · 纳西尔扎德赫(Aziz Nasirzadeh)、伊斯兰革命卫队司令穆罕默德 · 帕克普尔(Mohammad Pakpour)、最高国家安全委员会秘书长阿里 · 沙赫马尼(Ali Shamkhani)等 40 名核心领导人都被确认死亡。
这两场军事行动离不开 AI 技术的助力。经多家媒体报道,美国军方的 AI 技术来自一套以 Palantir 公司 AI 平台为载体、以 Anthropic Claude 大模型为认知引擎的情报分析系统。
据知情人士透露,Claude 是通过 Palantir 与美国国防部的合作关系,被集成进了军事行动的情报链条。不过,有的 Anthropic 员工甚至要在行动结束后,专门向 Palantir 方面询问 Claude 究竟扮演了什么具体角色。这个行为就很耐人寻味了。
此外,以色列去年 6 月空袭伊朗时,也使用了 AI 技术,用途包括截获通信、掌握敌方动向、加速情报和数据的梳理速度,以及加快识别高价值潜在打击目标等等。
必须要强调的是,美国从未公开过 Claude 等 AI 技术在行动中执行的具体任务,只是笼统地透露过其用途包括情报评估、目标识别和战斗场景模拟。目前的报道大多在引用知情人士的消息和专家的评论。
在这里我们不妨合理推测,AI 承担的很可能是以下几类工作:整合并分析来自当地潜伏线人、无人侦察机、通信截获和卫星图像等多渠道情报,完成对打击目标生活规律的建模;同时对当地防空网络的雷达盲区与最佳突入路线进行推演;以及在行动前对各种突袭路径下敌方可能的反应进行快速模拟。
当然,军事打击的最终目标和指令一定是由人类下达的。我们对 AI 能力的认知不能过分神化。
美军普及 AI 的新范式
着眼未来,要更深入地理解 AI 在美国军事行动中扮演的角色,需要将视野拉高到整个美军 AI 生态系统的层面。
简单来说,在经典 "OODA 循环 "(观察、调整、决策、行动)的军事理论框架中,决策体系可以被理解为一条 " 感知 - 认知 - 行动 " 链条。美军正在做的就是把 AI 融入链条中的每个环节。这方面的公开资料少且模糊,但我们可以从曝光度较高的 Maven 项目管中窥豹。
首先在感知层,美国太空军运营着三套互相配合的星基系统:地球同步太空态势感知计划(GSSAP)卫星星座、地基光学传感器系统(GBOSS)以及深空高级雷达能力(DARC),理论上能够对全球范围内的地面目标和轨道目标进行持续监视。
在 AI 战略上,美国太空军在 2024 和 2025 连续两年发布 " 数据人工智能战略行动计划 ",将 AI 纳入其全军数据战略框架,强调 AI 与数据技术必须融入太空作战与空间监视体系,用于 " 处理海量传感器数据并快速输出高价值信息 "。

具体目标包括:
提升太空军人员的 AI 素养,将 AI 相关知识纳入教育与训练体系;
测试和评估大模型、机器学习算法和 AI 工具在太空操作支持、实时洞察推送与情报工作中的效果;
强化数据架构与 AI 平台的互操作性,缩短从数据采集到决策支持的周期;
用 AI 处理卫星监测、空间碎片跟踪与轨道目标辨识,提升综合态势能力。
在认知层面,这些传感器采集到的海量原始数据,随后通过 Anduril 公司的 Lattice Mesh 战场感知网络进行实时汇聚与初步过滤。Lattice Mesh 是一套分布式的机器学习平台,专为在高度对抗的电磁环境下维持战场态势感知而设计,即使部分节点被摧毁或干扰,系统仍能保持整体运转。

处理后的结构化战场数据随后进入 Palantir 的 AI 平台(AIP),这套平台专门为将人类可读的情报内容与机器处理能力结合而设计,是美国军方和联邦执法机构使用最广泛的数据分析工具之一。在 AIP 的界面上,Claude 等大模型可以被直接调用,将数据转化为情报分析员或指挥官能够直接行动的语义化输出——无论是目标特征描述、打击路径推演,还是敌方反应模拟。

在整条管道的最顶端是 Maven 智能系统。Maven 运行于亚马逊 AWS 云服务之上,并集成了 Claude。这套系统能够自动执行军事杀伤链中的识别、定位、过滤和目标优先排序等关键步骤,并已经在现实行动中得到验证:美军已用它在红海等区域识别并引导打击火箭炮发射器和水上舰艇。按照美军的设想,整个链条最终应当实现从卫星图像到目标打击建议的全自动流水线作业,人类的干预只是在最终授权环节点头或摇头。
这种技术体系的军事意义,不只是效率的提升,而是认知维度的降维打击。传统战争中,OODA 循环周期受限于人类的处理速度,往往需要数小时甚至数天。而在 AI 驱动的算法战争中,这个周期正在被压缩到数秒甚至数毫秒。
当一方的决策时钟运行在人类速度,而另一方运行在机器速度,两者之间的对抗,胜负在开局时便已注定。
政府 VS 企业,AI 军事化的博弈
当 AI 在中东和南美的战场上大显身手的时候,美国国内却爆发了一场可能改变整个 AI 科技行业格局的剧烈博弈。
这场风波的核心文件,是五角大楼与 Anthropic 签署合同时坚持要求写入的一项条款,要求 AI 模型被用于所有合法用途(all lawful purposes)。Anthropic 的首席执行官达里奥 · 阿莫代(Dario Amodei)则认为,这是一个极其危险的法律漏洞。
Anthropic 是一家由前 OpenAI 核心研究人员在 2021 年创立的 AI 公司,在行业内以其对 AI 安全问题的严肃态度著称。该公司发展出了一套名为宪法 AI(Constitutional AI)的训练方法,并在其模型的使用协议中明确设置了两条不可逾越的红线:第一,禁止将 Claude 用于对美国公民的大规模国内监控;第二,禁止将 Claude 用于无需人类干预的完全自主致命武器系统。
对于这两条限制,五角大楼的回应是:大规模监控和自主武器已经受到现行法律和内部政策的约束,根本没有必要在商业合同中再额外加上这些条款,Anthropic 只需要信任军方,按照法律行事就够了。
但达里奥反驳称,现有的隐私法律是在 AI 具备同时监控数百万人的能力之前制定的。以一个具体的场景为例:政府完全可以从合法的商业数据代理商那里批量购买包含数亿美国公民地理位置、网页浏览记录和个人金融信息的数据集,然后利用 AI 进行大规模交叉分析。
这种做法在现行法律框架下并不构成非法国内监控,因为数据来自合法渠道,分析行为本身没有违法,但其实际效果却等同于大规模监控。

在媒体披露的另一段对话中,一位五角大楼官员先是提出了一个极端假设:若军方需借助 Claude 系统拦截携带核弹头的洲际弹道导弹,Anthropic 是否会授权?而达里奥的回答是:你们可以打电话给我们,我们跟你一起想办法。
这显然不是政府能接受的答案。
面对达里奥和 Anthropic 的不配合,美国总统特朗普和国防部长海格塞斯采取了极其强硬的手段。他们不仅下令全联邦机构停用 Claude,切断其价值数亿美元的合同,更破天荒地将这家美国本土明星 AI 企业列为供应链风险(通常用于制裁敌对国家的实体),甚至威胁动用《国防生产法》(DPA)强制征用其技术。
就在特朗普政府全面封杀 Anthropic 之际,OpenAI 首席执行官山姆 · 奥特曼(Sam Altman)迅速介入,宣布接手价值数亿美元的五角大楼合同。
为了平息舆论的不满并建立信任,OpenAI 公布了部分合同细节。
OpenAI 声称其同样划定了三条红线:无美国国内监控、无自主武器系统、无自动化高风险决策。然而,核心的妥协在于,OpenAI 全面接受了导致 Anthropic 退出的那项条款——允许五角大楼将模型用于所有合法用途。
OpenAI 辩称,其纯云端架构天然排除了完全自主武器的可能性,因为此类武器系统通常需要边缘部署,而非依赖云端服务器连接。同时,它依赖于国防部现有的法律规定来约束行为。
简而言之就是,Anthropic 不相信军方会守法,但 OpenAI 相信。
这一立场在行业内部引发了尖锐的批评。800 多名谷歌和 OpenAI 员工联署了一封以 " 我们不应被分裂 "(We Will Not Be Divided)为题的公开信,批评公司管理层的决定。

有意思的是,埃隆 · 马斯克(Elon Musk)的 xAI 也在差不多的时间点与五角大楼签署协议,允许机密军事系统使用其 Grok 模型,也就是说它也同意了 " 所有合法用途 " 条款,但招来的舆论风暴比 OpenAI 更小。
AI 的奥本海默时刻
2022 年底 ChatGPT 横空出世后,关于 AI 军事化的讨论也逐渐增多,但大多都是学术界和科技论坛上。直到今天,我们终于在更大的舆论场上见到了公众对它的讨论。
在所有关于 AI 军事化的讨论中,有一个问题总是被淹没在具体技术细节和地缘政治分析的洪流里,却也许是最根本的那一个:当 AI 系统在 " 黑箱 " 中生成目标特征、计算威胁分数、建议打击方案,而连操作它的军方官员也无法理解其逻辑链条时," 责任 " 这个词,意味着什么?
罗伯特 · 奥本海默(Robert Oppenheimer)在回忆 1945 年 " 三位一体 " 核试验时,引用了《薄伽梵歌》的经文:" 我现在成了死神,世界的毁灭者。" 核武器重新定义了 20 世纪的战争边界,而 AI 武器正在以另一种方式重新定义 21 世纪的战争本质:杀戮的机械化与非人性化。
当 AI 系统从一个人的手机使用习惯、社交网络行为和地理轨迹中提取出 " 武装分子特征指数 ",并将打出的分数与无人机上的武器系统直接相连,整个过程在数秒内完成,而人类的干预只是在一个倒计时读数里点击一个按钮——这还是人类在做决定吗?当训练数据中固有的偏见导致系统将某一特定外貌特征或行为模式的人群赋予更高的威胁分数,而这种偏见在黑箱中不可见,在短暂的决策窗口内不可察,这场战争还是人类的战争吗?
Anthropic 因为提出这些问题并坚持将其写入合同,被驱逐出了美国的军事体系;OpenAI 和 xAI 因为接受了 " 所有合法用途 " 的框架,接管了这份权力,同时接管了这份责任的空白。
在更名为美国战争部的机构手中,我们不清楚 AI 大模型会变成什么样子,但 AI 的 " 奥本海默时刻 " 真的到来了。
参考资料
[ 1 ] https://www.nga.mil/news/GEOINT_Artificial_Intelligence_.html
[ 2 ] https://www.politico.com/news/magazine/2025/09/02/pentagon-ai-nuclear-war-00496884
[ 3 ] https://www.spaceforce.mil/Portals/2/Documents/SAF_2025/USSF_Data_and_AI_FY2025_Strategic_Action_Plan.pdf
[ 4 ] https://www.anduril.com/lattice/lattice-mesh
[ 5 ] https://www.hindustantimes.com/world-news/us-news/did-us-use-anthropics-claude-ai-in-iran-strikes-despite-trumps-ban-101772345758921.html
[ 6 ] https://www.palantir.com/platforms/aip/defense/
[ 7 ] https://www.theglobeandmail.com/world/article-israel-spies-drones-military-operation-iran/
[ 8 ] https://www.foxnews.com/us/ai-tool-claude-helped-capture-venezuelan-dictator-maduro-us-military-raid-operation-report
[ 9 ] https://notdivided.org/
[ 10 ] https://futurism.com/artificial-intelligence/anthropic-military-ai-nuclear-strike
[ 11 ] https://www.bloomberg.com/features/2024-ai-warfare-project-maven/
[ 12 ] https://www.axios.com/2026/02/23/ai-defense-department-deal-musk-xai-grok
注:本文封面图片来自版权图库,转载使用可能引发版权纠纷。

相关阅读
2 这些科学天才改写了战争走向,但关乎人类命运的问题仍待解答
近期推荐
2 每 3 篇就有 1 篇涉嫌造假?中国癌症研究遭遇 " 最大规模 " 质疑
3 既然都要 " 炒菜 ",材料科学和凝聚态物理有什么不一样?
特 别 提 示
1. 进入『返朴』微信公众号底部菜单 " 精品专栏 ",可查阅不同主题系列科普文章。
2.『返朴』提供按月检索文章功能。关注公众号,回复四位数组成的年份 + 月份,如 "1903",可获取 2019 年 3 月的文章索引,以此类推。
3. 欢迎投稿!邮箱:fanpusci@163.com ,如有参考文献请附文末。稿件合适会尽快联系!
版权说明:欢迎个人转发,任何形式的媒体或机构未经授权,不得转载和摘编。转载授权请在「返朴」微信公众号内联系后台。
找不到《返朴》了?快加星标!!

长按下方图片关注「返朴」,查看更多历史文章

微信实行乱序推送,常点 "在看",可防失联


登录后才可以发布评论哦
打开小程序可以发布评论哦