特朗普按下「创世纪」按钮之时,美国举国豪赌「AI 曼哈顿计划」!
白宫给它起名叫——美国创世纪计划(US Genesis Mission): 让 AI 直接参与提出科学假设、设计实验、分析数据,让「AI 科学家」加速科研创新。
就在创世纪计划宣布后的第二天——
美国能源部科学事务副部长兼「创世纪计划」项目主任 Darío Gil,联手斯坦福大学教授 Kathryn A. Moler,在《科学》(Science)杂志发表社论,点题只有一句话:
让 AI 加速科研,应该变成一场科研界共同参与的运动。

他们强调两件事:
好的科研,始于对话和好问题;
AI 真正的价值,不止写论文摘要,而是生成可验证的结果。
美国要造「AI 原子弹」
继《AI 行动计划》之后,创世纪计划是美国的又一记重拳。
这一次,美国所图更大——直接把它类比成二战时期的核武器研发计划——「曼哈顿计划」。
这场「AI 曼哈顿计划」,要动员的是全美科研与工业体系:
调动国家实验室的顶级科学家;
联合创新企业和美国顶尖大学;
打通现有科研基础设施、数据存储库、生产设施;
甚至联动国家安全体系中的算力与数据资源。

白宫的目标写得很直白:
训练「科学基础模型」、打造科研智能体,
让 AI 深度嵌入科研流程,验证全新假设、自动化研究步骤,
用数量级的速度提升科学突破率。
在《科学》社论,项目负责人给出了路线图:如果把这类 AI 嵌入科研全流程——「提出假设 → 设计实验 → 采集数据 → 分析结果」,科研生产力有机会迎来数量级的跃迁。
但他们也警告:
如果没有可解释性,AI 可能放大原有偏见;
如果没有责任边界,所谓「AI 科学家」就可能变成危险的黑箱。

AI 科学家是美国新国策
在白宫看来,把 AI 真正嵌入科研工作流,是一个国家级生产力问题。
只要做成一件事:
让每一位科学家,都拥有能力爆表的「AI 搭档」。
本周,白宫重磅宣布启动「美国创世纪计划」(US Genesis Mission),瞬间点燃了关于如何兑现这一潜力的关键探讨。
但科研的成功,始于提出正确的科学问题。
首先,要精准锁定那些能带来颠覆性突破的难题,以此倒逼 AI 方法论的进化和「人机协作」模式的升级,最终更广泛加速科学研究。
看看前沿领域正在发生什么:
在核聚变能源领域,这意味着利用 AI 来「驯服」比太阳核心更炽热的等离子体——通过精准预测其不稳定性,实现毫秒级的实时控制;
在分子与材料科学领域,这意味着要开发出能预测动力学和功能特性的模型,从而开启全新的发现之旅;
而在量子前沿,这意味着加速算法的开发,去模拟自然界的奥秘,并攻克那些目前看似无解的顽疾。
换句话说:先把最硬的骨头挑出来,再让 AI 去咬。
研究的成功,更取决于为 AI 模型提供「燃料」的数据。
不妨看看蛋白质数据库(Protein Data Bank)的例子,正是它提供的关键数据集,才成就了如今蛋白质结构预测的辉煌。

蛋白质数据银行(PDB)作为生物医学领域首个开放获取数字数据资源,如今已成为支撑科学发现的核心实验数据全球引领平台。其中,美国的 RCSB 蛋白质数据库,负责管理大型生物分子(蛋白质、DNA 和 RNA)三维结构数据的归档工作。这些数据是基础生物学、健康医疗、能源及生物技术领域研究与教育的重要基石。
这一成就的背后,是数十年如一日的投入与积累:既要像先进光源这样的实验工具来生成数据,也需要开放获取的存储库来共享信息。
大科学装置,通过提供丰富且结构相对规范的数据,打下了坚实的基础,比如
「薇拉 · 鲁宾天文台」(Vera C. Rubin Observatory)、
「先进光子源」(Advanced 、PhotonSource )、
「大型强子对撞机」(Large Hadron Collider)



问题在于——
真正的科研世界,远不止这些「干净的」大装置数据。
在更广泛的研发体系里,数据往往是这样的:
分散在不同实验室、企业和部门;
格式五花八门,标准各说各话;
元数据缺失,连「这是什么」「怎么来的」都说不清。
这就形成了一个个数据孤岛。对 AI 来说,它们几乎是「不可用」的。
要将这些孤立的数据孤岛转化为统一的创新引擎,需要科学家、美国国家机构以及各方利益相关者通力合作:
既要清洗整理现有的存量数据,使其能被 AI 所用;
更要建立统一标准,让未来的数据从诞生之初就具备「AI 就绪」(AI ready)的基因,且易于获取。
下一代科学家,呼唤的是一种集大成者的计算基础设施:
打通 E 级(Exascale)高性能计算、专用 AI、量子超级计算机;
融合安全网络、按需调用的云算力以及海量数据存储;
更进一步,连接传感器、控制器等边缘设备,并植入专用 AI 算法,实时采集现场实验数据与精准控制。
不止大语言模型
AI 与科学的融合,绝不止于通用大语言模型。
接下来更重要的,是一类混合模型——
把「神经网络的学习能力」和「传统物理模拟的精确预测」,绑在一套系统里。
关键在于「辅助」而非「替代」。
这些新模型将成为经典科学模型的左膀右臂,并在流程中设置「检查点」,利用已知物理模型和真实数据,时刻校验并纠正 AI 生成的结果。
当这种混合模型,和「科学智能体」(Scientific Agents)结合时,奇迹发生了 :
科学发现周期将被大幅压缩,每一次 AI 分析产生的数据,都会注入到一个自我进化的增强循环中。

所谓科学智能体,就是在人类指令下,自动协调文献检索、假设生成、实验设计、数据分析等步骤的 AI 系统。
要让 AI 真正成为科学家的「好搭档」,它必须能产出经得起推敲、可验证的成果。
所有数据、方法论、代码和产出,都必须摊在阳光下,接受公众审视。
这就要求研究人员、科研机构、学术期刊乃至资助机构进行全行业动员,共同推动开源模型、标准化工具以及「开箱即用」数据的普及。
AI 组合拳解锁人类级智能
与之呼应,同日《自然》发表的社论提出 :
把大模型的统计学习,与符号推理、规划模块组合在一起,可能是迈向「接近人类水平智能」的关键路径之一。

几十年前,符号系统曾是人工智能领域的领跑者。
然而,到了 2010 年代初,它们被更灵活的神经网络远远甩在了身后。这些 AI 模型擅长从海量数据中学习,构成了大语言模型(LLMs)以及 ChatGPT 等应用的基础。
然而现在,计算机科学界正在极力推动这种「新老技术」进行更优化、更大胆的融合。

「神经符号 AI」(Neurosymbolic AI)已成为当前业界最热门的流行词。
马里兰大学帕克分校(University of Maryland, College Park)的计算机科学家 Brandon Colelough,追踪了学术论文中这一概念的迅速崛起。
数据显示,人们对神经符号 AI 的兴趣在 2021 年左右出现激增,且目前毫无减弱的迹象。

不少研究者松了口气:
这意味着,神经网络在 AI 研究中的「不健康垄断」,终于开始被打破。
这两种策略的深度融合,可能会通向通用人工智能(AGI):即像人类一样,AI 能够推理,还能将知识从一种情境迁移推广到另一种情境。
Colelough 指出,这种技术对于军事或医疗决策等高风险应用场景也可能大有裨益。他解释道,由于符号 AI 具有透明性且易于被人类理解,它不存在那种让人难以信任神经网络的「黑箱综合症」(Black box syndrome)。
神经符号 AI 已有一些成功的先例,包括谷歌 DeepMind 的AlphaGeometry。
但是,如何找出将神经网络与符号 AI 结合成一个通用系统的最佳方式,仍是一个贷借的难题。
「你实际上是在构建某种双头野兽,」同样来自马里兰大学的计算机科学家 William Regli 说道。

两大顶刊在同一时间窗口集中发声,相当于给「AI 参与科学发现」的路线图盖章,也为公众讨论「人类与 AI 在知识生产上的分工」提供了一个高话题度的入口。
终极科学诺言
Darío Gil 等认为,AI 加速科学的引擎,需要公私两股资金的合力注入——
现在正是尝试新方法的最佳时机:联合投资算力基建、搭建数据共享框架、针对能催生 AI 新范式的难题展开协同攻关。
这一战略的价值,绝不止步于科学界,它将辐射至整个经济体。
目前,研发投入占美国 GDP 的 3.5%,这台强大的经济引擎所产出的回报,远远超过了投入成本。
通过赋能跨学科、跨机构的研究人员,AI 将全面加速科学与工程的演进。它将大幅提升科研的生产力与影响力,引爆创新,驱动经济增长,最终造福人类生活。
这,就是在这个全新发现时代美国许下的终极诺言。
同一个时间窗口,《科学》和《自然》同时发社论,一起盖了两个章:
AI 参与科学发现,不再只是边缘话题,而是被写进国家级议程。
围绕人类与 AI 在知识生产上的分工,公共讨论的门槛被正式抬高。
接下来,我们会越来越频繁地听到 AI 与人类在科学发现中互动出现的问题。
可以确定的是:
当白宫把「AI 科学家」当成国家战略来做, 全球科研和产业的博弈,也会随之加速。


