开源领域一大悲号传来——
艾伦人工智能研究所(Ai2),宣布削减开源模型开发(包括 OLMo)的资金,转向 AI 应用。

就在同一时间,AI2 核心团队几乎被 " 打包带走 ",集体流向微软。
人员包括前 CEO 阿里 · 法哈迪、前首席运营官索菲 · 莱布雷希特、汉娜 · 哈吉希尔齐和兰杰 · 克里希纳,都是 Ai2 的核心力量。
其中有的人上周刚参加完 GTC 大会,还跟老黄畅谈开源模型的未来。

他们的下一站,则是微软穆斯塔法 · 苏莱曼的超级智能团队。
X 上已经炸了锅,全网一片哀鸣。
不少网友唏嘘:这对开源社区来说是个巨大遗憾,OLMo 是极少数真正开源的模型之一。

核心人员打包进微软
核心人员集体离职,是一个非常不妙的信号。
Ai2 前 CEO 阿里 · 法哈迪、前首席运营官索菲 · 莱布雷希特、汉娜 · 哈吉希尔齐和兰杰 · 克里希纳,统统被苏莱曼打包进了微软。
法哈迪已于 3 月 12 日卸任,结束了超过两年半的 Ai2 掌门人生涯。

他与 Ai2 的渊源颇为深厚。法哈迪是一位计算机视觉专家,也是华盛顿大学计算机科学与工程学院的教授,该院即以微软联合创始人、Ai2 创始人保罗 · 艾伦(Paul Allen)的名字命名。
他还联合创立了 Ai2 的衍生公司 Xnor.ai,该公司于 2020 年被苹果以约 2 亿美元的价格收购。在苹果,他曾领导机器学习工作。
哈吉希尔齐是 OLMo 开源模型项目的联合负责人,上周刚在英伟达 GTC 大会上代表 Ai2 参加了多场会议,还和黄仁勋探讨开源模型的未来。

她还是开源多模态人工智能基础设施加速科学发展项目(OMAI)的联合首席研究员。
这个项目旨在构建用于科学研究的开源模型,为期 5 年,耗资 1.52 亿美元,由英伟达和美国国家科学基金会联合资助。
克里希纳则主导了 Ai2 多模态模型 Molmo 等多个关键项目,同样在刚刚结束的 GTC 大会上代表 Ai2 发表演讲。

而现在,这些人才将集体加入微软穆斯塔法 · 苏莱曼的超级智能团队。
从去年 11 月起,苏莱曼就开始组建超级智能团队,目前已从谷歌、Meta、OpenAI、Anthropic 等巨头挖角了不少研究人员,还在不断从 Ai2 和华盛顿大学聘请人才。
苏莱曼在领英上公开发帖,欢迎他们的加入。
他还称赞法哈迪带领 Ai2 在一年内发布了 100 多个模型;而哈吉希尔齐是 " 世界上被引用次数最多的自然语言处理研究人员之一,毋庸置疑 "。

而莱布雷希特则扩大了 Ai2 的运营规模和开源工作,共同领导和创立了 Xnor.ai 和 Neon Labs,还拥有布朗大学认知神经科学博士学位。
苏莱曼表示,他们将助力推进微软的使命——实现 " 以人为本的超级智能:打造更安全、可控、更强大的 AI 系统,服务于人类以及解决最棘手的问题 "。
法哈迪也在领英上表示自己很高兴加入微软。

可想而知,一批核心人员的离职对于 Ai2 而言是一次重大打击。但他们为什么要走呢?
答案还是出在资金上。
Ai2 董事会主席比尔 · 希尔夫透露,法哈迪希望在人工智能的前沿领域进行研究,而 OpenAI、谷歌等公司会花费数十亿美元来训练最先进的模型。
但对于一家非营利组织而言,很难以慈善资金训练出对标巨头的模型,还完全开源。
希尔夫表示,董事会必须权衡其慈善资金是否还应该用于 " 追赶进度 "。他也承认,在大模型开发的最高规模上与科技巨头竞争,已经变得异常困难。

此话怎讲呢?GPT-4 级别模型训练成本估计在 1-2 亿美元量级,当前前沿模型已攀升至数亿美元。
AI2 的年度运营预算虽未公开,但可以参考一些指标。
比如 OMAI 项目的 1.52 亿美元是五年期、多机构共享的专项资助,年均约 3000 万美元,仅相当于最前沿的单个大模型训练成本的一小部分。
这和巨头相比是数量级差距,很难正面竞争。
进一步来说,投资方的策略调整是更加决定性的因素。
Ai2 最初由艾伦的 Vulcan 公司资助,后来由其遗产继续资助。现在的最大资助方是科学与技术基金会(FFST),该基金会由保罗 · 艾伦的遗产设立,规模达 31 亿美元。
2024 年,琳达 · 斯图尔特博士接任 FFST CEO 后,资助策略发生了显著变化。

斯图尔特是一位医生科学家,曾领导华盛顿大学蛋白质设计研究所。
她更倾向于具有明确科学应用和可量化社会影响的项目,而非投入大量资金进行前沿模型的研究。
据 GeekWire 报道,2026 年 Ai2 的所有项目都已经获得全额资助,但 FFST 的资助模式将由提供年度总资助转向基于项目提案的资助模式。
这种转变意味着什么?在年度整体资助模式下,研究机构通常拥有较高自主权,能够承担长期风险、灵活调整资源分配。
而基于提案的模式引入了更强的成果导向和短期问责,每个资助周期都需要明确的可交付成果和影响力指标。
对于开源基础模型开发——周期长、成本高、商业回报不直接——这种转变意味着更大的不确定性和更高的申请成本。
有知情人士透露,FFST 未来的资助预计将更倾向于人工智能的实际应用,而非构建开源基础模型。
这也很好地解释了,为何专注于模型开发的研究人员纷纷选择离开。
美国开源 AI 最后的旗帜倒了
消息一出,X 上一片悲鸣。
不少网友表示:美国开源 AI 最后的旗帜也倒了。

为何这么说?因为过去几年,Ai2 确实投入了大量资源做真正开源的大模型。
Ai2 的 OLMo 系列,极致地践行了 " 完全开源 "(truly open)理念。
它不仅开源模型权重,而且从数据处理到预训练、微调,再到评测,全阶段都公开透明。并且始终采用对开发者友好的 Apache2.0 许可证。
2025 年 11 月发布的 OLMo 3,进一步强化了这种透明度承诺。该系列包括 Base、Instruct、Think 和 RL Zero 四个变体,覆盖 7B 和 32B 参数规模。

其中 OLMo 3-Think 32B 被宣传为 " 该规模首个完全开源推理模型 " 。
更重要的是,Ai2 发布了完整的 " 模型流程 "(model flow),包括训练日志、中间检查点、完整代码和配置。
还有升级版的 OlmoTrace 工具,允许研究者将模型推理步骤回溯到具体影响它的数据和训练决策。
因此也有说法认为:OLMo 与 Llama 4、Mistral Large 3 并称为 " 三大开源支柱 "。并且 OLMo 更透明,因为它提供所有中间产物,而 Llama 只开源权重,Mistral 部分数据闭源。
但现在,这个开源领域旗帜性的标杆,倒了。
一时之间,梗图与迷因齐飞。

大洋彼岸的网友们进行了一场赛博悼念,大感 " 开源悲剧 ",还有人联想到了全球同此凉热。


不过也有人认为,这很正常,开源经济学理论站不住脚。用非营利方式做顶级开源模型这条路,难以持续。

目前,临时 CEO 皮特 · 克拉克表示 Ai2 仍致力于其使命以及与 NSF 和 Nvidia 的合作关系,包括 OMAI 计划。
克拉克是 Ai2 的创始成员之一,曾于 2022-2023 年担任临时 CEO。他曾共同领导 Ai2 的 Asta 项目,旨在开发用于辅助和自动化科学发现的智能体框架的大型计划。

开源 AI 的东升西落
美国仍有开源力量,但都在变形:
Meta 的 LLaMA,名义上 " 开源 ",但越来越偏 " 可控开放 "。训练数据不公开,许可有限制,并且还持续难产。
谷歌的 Gemma,提供模型权重、推理使用权限,但同样没有完整训练数据或流程。
Hugging Face 的 SmolLM,完全开源,但由社区驱动,缺乏大规模训练资源。
英伟达的 Nemotron 系列,近期更开放了,不断推出开放许可,更多开源数据发布,但主要服务硬件生态。
相比之下,中国的开源模型已经超越了美国领先的开源模型,并进一步拉大了与它们的性能差距。
现在,Ai2 的战略调整,也会加速美国与中国在开源 AI 领域的差距扩大。
在 OpenRouter 上,过去三周中国大模型的调用量已经连续超过美国,跟领先的闭源模型也打得有来有回。

MIT 与抱抱脸的联合报告显示,过去一年,中国开源模型全球下载量占比达到 17.1%,首次反超美国。
许多美国初创企业也开始 " 悄悄 " 依赖中国开源模型进行构建,其默认选择进一步向中国模型倾斜。
比如上周 Cursor 发布新模型 Composer 2,被曝套壳 Kimi K2.5;还有初创公司 Deep Cogito 去年发布的 Cogito v2.1,也被曝基模是 DeepSeek,都从侧面证实了中国开源模型的实力。
开源的火种未熄,但风向已变。开源 AI 已经完全进入了中国时间。
开源 AI 的未来,只能在中国了。如果存在一个大模型安卓版,那这个也只能在中国了。
参考链接:
[ 1 ] https://www.geekwire.com/2026/microsoft-hires-former-ai2-ceo-ali-farhadi-and-key-researchers-for-suleymans-ai-team/
[ 2 ] https://x.com/i/trending/2036565214154625310
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
龙虾时代,Skill 会吃掉 APP 吗?
3 月 31 日(周二)14:00,量子位攒了个局,一起来找答案。
AI 时代的产品人,可能都该来听听
一键关注 点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦