新智元 6小时前
美国宣战,AI曼哈顿计划打响第一枪,“AI科学家”成最新核武器
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

特朗普按下「创世纪」按钮之时,美国举国豪赌「AI 曼哈顿计划」!

白宫给它起名叫——美国创世纪计划(US Genesis Mission): 让 AI 直接参与提出科学假设、设计实验、分析数据,让「AI 科学家」加速科研创新。

就在创世纪计划宣布后的第二天——

美国能源部科学事务副部长兼「创世纪计划」项目主任 Darío Gil,联手斯坦福大学教授 Kathryn A. Moler,在《科学》(Science)杂志发表社论,点题只有一句话:

让 AI 加速科研,应该变成一场科研界共同参与的运动。

他们强调两件事:

好的科研,始于对话和好问题

AI 真正的价值,不止写论文摘要,而是生成可验证的结果

美国要造「AI 原子弹」

继《AI 行动计划》之后,创世纪计划是美国的又一记重拳。

这一次,美国所图更大——直接把它类比成二战时期的核武器研发计划——「曼哈顿计划」。

这场「AI 曼哈顿计划」,要动员的是全美科研与工业体系

调动国家实验室的顶级科学家;

联合创新企业和美国顶尖大学;

打通现有科研基础设施、数据存储库、生产设施;

甚至联动国家安全体系中的算力与数据资源。

白宫的目标写得很直白:

训练「科学基础模型」、打造科研智能体,

让 AI 深度嵌入科研流程,验证全新假设、自动化研究步骤,

用数量级的速度提升科学突破率。

在《科学》社论,项目负责人给出了路线图:如果把这类 AI 嵌入科研全流程——「提出假设 → 设计实验 → 采集数据 → 分析结果」,科研生产力有机会迎来数量级的跃迁。

但他们也警告:

如果没有可解释性,AI 可能放大原有偏见;

如果没有责任边界,所谓「AI 科学家」就可能变成危险的黑箱。

AI 科学家是美国新国策

在白宫看来,把 AI 真正嵌入科研工作流,是一个国家级生产力问题

只要做成一件事:

让每一位科学家,都拥有能力爆表的「AI 搭档」。

本周,白宫重磅宣布启动「美国创世纪计划」(US Genesis Mission),瞬间点燃了关于如何兑现这一潜力的关键探讨。

但科研的成功,始于提出正确的科学问题。

首先,要精准锁定那些能带来颠覆性突破的难题,以此倒逼 AI 方法论的进化和「人机协作」模式的升级,最终更广泛加速科学研究。

看看前沿领域正在发生什么:

核聚变能源领域,这意味着利用 AI 来「驯服」比太阳核心更炽热的等离子体——通过精准预测其不稳定性,实现毫秒级的实时控制;

分子与材料科学领域,这意味着要开发出能预测动力学和功能特性的模型,从而开启全新的发现之旅;

而在量子前沿,这意味着加速算法的开发,去模拟自然界的奥秘,并攻克那些目前看似无解的顽疾。

换句话说:先把最硬的骨头挑出来,再让 AI 去咬。

研究的成功,更取决于为 AI 模型提供「燃料」的数据。

不妨看看蛋白质数据库(Protein Data Bank)的例子,正是它提供的关键数据集,才成就了如今蛋白质结构预测的辉煌。

蛋白质数据银行(PDB)作为生物医学领域首个开放获取数字数据资源,如今已成为支撑科学发现的核心实验数据全球引领平台。其中,美国的 RCSB 蛋白质数据库,负责管理大型生物分子(蛋白质、DNA 和 RNA)三维结构数据的归档工作。这些数据是基础生物学、健康医疗、能源及生物技术领域研究与教育的重要基石。

这一成就的背后,是数十年如一日的投入与积累:既要像先进光源这样的实验工具来生成数据,也需要开放获取的存储库来共享信息

大科学装置,通过提供丰富且结构相对规范的数据,打下了坚实的基础,比如

「薇拉 · 鲁宾天文台」(Vera C. Rubin Observatory)、

「先进光子源」(Advanced 、PhotonSource )、

「大型强子对撞机」(Large Hadron Collider)

问题在于——

真正的科研世界,远不止这些「干净的」大装置数据。

在更广泛的研发体系里,数据往往是这样的:

分散在不同实验室、企业和部门;

格式五花八门,标准各说各话;

元数据缺失,连「这是什么」「怎么来的」都说不清。

这就形成了一个个数据孤岛。对 AI 来说,它们几乎是「不可用」的。

要将这些孤立的数据孤岛转化为统一的创新引擎,需要科学家、美国国家机构以及各方利益相关者通力合作:

既要清洗整理现有的存量数据,使其能被 AI 所用;

更要建立统一标准,让未来的数据从诞生之初就具备「AI 就绪」(AI ready)的基因,且易于获取。

下一代科学家,呼唤的是一种集大成者的计算基础设施:

打通 E 级(Exascale)高性能计算、专用 AI、量子超级计算机;

融合安全网络、按需调用的云算力以及海量数据存储;

更进一步,连接传感器、控制器等边缘设备,并植入专用 AI 算法,实时采集现场实验数据与精准控制。

不止大语言模型

AI 与科学的融合,绝不止于通用大语言模型。

接下来更重要的,是一类混合模型——

把「神经网络的学习能力」和「传统物理模拟的精确预测」,绑在一套系统里。

关键在于「辅助」而非「替代」。

这些新模型将成为经典科学模型的左膀右臂,并在流程中设置「检查点」,利用已知物理模型和真实数据,时刻校验并纠正 AI 生成的结果。

当这种混合模型,和「科学智能体」(Scientific Agents)结合时,奇迹发生了 :

科学发现周期将被大幅压缩,每一次 AI 分析产生的数据,都会注入到一个自我进化的增强循环中。

所谓科学智能体,就是在人类指令下,自动协调文献检索、假设生成、实验设计、数据分析等步骤的 AI 系统。

要让 AI 真正成为科学家的「好搭档」,它必须能产出经得起推敲、可验证的成果。

所有数据、方法论、代码和产出,都必须摊在阳光下,接受公众审视。

这就要求研究人员、科研机构、学术期刊乃至资助机构进行全行业动员,共同推动开源模型、标准化工具以及「开箱即用」数据的普及。

AI 组合拳解锁人类级智能

与之呼应,同日《自然》发表的社论提出 :

把大模型的统计学习,与符号推理、规划模块组合在一起,可能是迈向「接近人类水平智能」的关键路径之一。

几十年前,符号系统曾是人工智能领域的领跑者。

然而,到了 2010 年代初,它们被更灵活的神经网络远远甩在了身后。这些 AI 模型擅长从海量数据中学习,构成了大语言模型(LLMs)以及 ChatGPT 等应用的基础。

然而现在,计算机科学界正在极力推动这种「新老技术」进行更优化、更大胆的融合。

「神经符号 AI」(Neurosymbolic AI)已成为当前业界最热门的流行词。

马里兰大学帕克分校(University of Maryland, College Park)的计算机科学家 Brandon Colelough,追踪了学术论文中这一概念的迅速崛起。

数据显示,人们对神经符号 AI 的兴趣在 2021 年左右出现激增,且目前毫无减弱的迹象。

不少研究者松了口气:

这意味着,神经网络在 AI 研究中的「不健康垄断」,终于开始被打破。

这两种策略的深度融合,可能会通向通用人工智能(AGI):即像人类一样,AI 能够推理,还能将知识从一种情境迁移推广到另一种情境。

Colelough 指出,这种技术对于军事或医疗决策等高风险应用场景也可能大有裨益。他解释道,由于符号 AI 具有透明性且易于被人类理解,它不存在那种让人难以信任神经网络的「黑箱综合症」(Black box syndrome)

神经符号 AI 已有一些成功的先例,包括谷歌 DeepMind 的AlphaGeometry

但是,如何找出将神经网络与符号 AI 结合成一个通用系统的最佳方式,仍是一个贷借的难题。

「你实际上是在构建某种双头野兽,」同样来自马里兰大学的计算机科学家 William Regli 说道。

两大顶刊在同一时间窗口集中发声,相当于给「AI 参与科学发现」的路线图盖章,也为公众讨论「人类与 AI 在知识生产上的分工」提供了一个高话题度的入口。

终极科学诺言

Darío Gil 等认为,AI 加速科学的引擎,需要公私两股资金的合力注入——

现在正是尝试新方法的最佳时机:联合投资算力基建、搭建数据共享框架、针对能催生 AI 新范式的难题展开协同攻关。

这一战略的价值,绝不止步于科学界,它将辐射至整个经济体。

目前,研发投入占美国 GDP 的 3.5%,这台强大的经济引擎所产出的回报,远远超过了投入成本。

通过赋能跨学科、跨机构的研究人员,AI 将全面加速科学与工程的演进。它将大幅提升科研的生产力与影响力,引爆创新,驱动经济增长,最终造福人类生活。

这,就是在这个全新发现时代美国许下的终极诺言。

同一个时间窗口,《科学》和《自然》同时发社论,一起盖了两个章:

AI 参与科学发现,不再只是边缘话题,而是被写进国家级议程。

围绕人类与 AI 在知识生产上的分工,公共讨论的门槛被正式抬高。

接下来,我们会越来越频繁地听到 AI 与人类在科学发现中互动出现的问题。

可以确定的是:

当白宫把「AI 科学家」当成国家战略来做, 全球科研和产业的博弈,也会随之加速。

评论
大家都在看