OpenAI 的动作比所有人想象的都要快。
上周二,OpenAI 完成重组。其中一个重要变化是:彻底取消了与微软的排他性协议,结束了 Azure 长达六年的云服务独占模式。此前,OpenAI 所有模型的训练、推理与部署都必须优先选择 Azure,微软还享有优先购买权。
宣布与 Azure" 分手 " 后不到一周,OpenAI 便火速宣布了与 AWS 的战略合作——双方达成一项价值 380 亿美元的云计算协议,OpenAI 将全面接入 AWS 的算力资源:数十万张最新一代英伟达 GPU,外加数千万颗正在部署的 CPU。
这种 " 无缝衔接 " 的速度瞬间引发热议。毕竟在过去很长一段时间里,OpenAI 与微软的关系都十分 " 微妙 ",双方不合的传闻屡见不鲜。
在 OpenAI 风靡全球之后,无数新的 " 伯乐 " 涌来,OpenAI 快速成长为让所有硅谷巨头都倍感威胁的公司,在某些方面也成了微软的直接竞争对手。这些都让他们的关系变得尴尬,甚至在整个 2025 年两位核心人物并未同时出席过公开活动。在这次深度对话之前,仅在今年 5 月微软 Build 大会中,Altman 通过视频连线匆匆而过,发言时间甚至没有马斯克多。
这次与 AWS 的闪电合作,似乎坐实了外界的猜测。但真相果真如此吗?
上周日,Sam Altman 和 Satya Nadella 久违地同框,一起录制了一档视频播客。主持人 Brad Gerstner 开门见山地问道:"ChatGPT 或 GPT-6 不会出现在亚马逊或谷歌的云上,对吗?"

Altman 立刻否认并澄清:" 不是这样的。" 他解释说,双方合作的核心是运行在 Azure 上的 " 无状态 API",但这部分并非完全排他,且协议有明确期限(至 2030 年)。同时他强调:" 其他产品和模型,我们也会在不同的平台上发布。"
这几乎是对独占权问题的正面回应。而全程在场的 Nadella,用他的沉默与在场本身,为这场澄清作了最有力的背书。在这场播客中,尽管两人的关系不如 " 蜜月期 " 那般热络,但至少有一点可以确定:他们又重新站到了一起,以一种更成熟、更务实的方式,缔结了新的同盟。
从 OpenAI 近期的种种动作来看,这家公司正告别野蛮生长的第一阶段。而在下一个阶段的朋友圈里,微软仍然是最重要的那一个。
今天的 AWS,不是昨天的 Azure
要理解 OpenAI 与微软如今这种的新型同盟,我们必须首先厘清一个核心问题:OpenAI 的战略重心,已经发生了根本性的转移。
外界之所以对 OpenAI 与 AWS 的合作感到震惊,是因为他们仍停留在 " 上一个时代 " 的惯性思维里。在那个时代,OpenAI 的唯一焦点是模型的训练与创造。为了炼成 GPT-3、GPT-4 这样史无前例的 " 巨兽 ",它需要一个能够提供海量、稳定且高度集成算力的 " 专属锻造炉 "。Azure,几乎是当时唯一的选择。
对于微软而言,与 OpenAI 的独家深度绑定是一次堪称世纪级的战略投资。通过支撑 OpenAI 的训练,Azure 不仅在技术上完成了对超大规模 AI 负载的深度优化,一举成为全球公认 " 最懂 AI 的智能云 ";更在市场上,凭借这块金字招牌,甩开追兵,稳稳坐上了全球云市场第二的宝座。可以说,上一个阶段,是 OpenAI 与 Azure 围绕 " 训练 " 这一核心目标,构建的深度共生、互相成就的独占时代。
然而,当模型本身已经足够强大,游戏的规则就变了。
进入下一个阶段,OpenAI 的棋局不再仅仅是 " 如何把模型做得更大 ",而是 " 如何让模型无处不在 "。正如 Sam Altman 在播客中反复强调的,未来的重点在于 CodexAI 对编程世界的颠覆,以及由此催生的、能够深入千家万户的全新消费级硬件。这些目标的本质,是大规模的应用普及。
这是 Altman 在如此公开场合,又一次明确表达了对创造全新硬件的浓厚兴趣和意愿。这表明 OpenAI 的野心远不止于软件和云端,而是要定义下一代人机交互的物理载体。
大规模普及意味着什么?意味着不能再将所有鸡蛋放在一个篮子里。它要求 OpenAI 必须成为一个平台无关、无处不在的 "AI 水电煤 "。它需要拥抱更广阔的生态,需要出现在开发者和用户最熟悉、最便捷的任何地方:无论是 Azure,是 AWS,还是未来的 Google Cloud。
所以 AWS 的意义,与当年的 Azure 截然不同。一个是用来 " 炼丹 " 的,一个是用来 " 卖药 " 的;一个关乎技术突破,一个关乎商业触达。这不是背叛,而是 OpenAI 从 " 模型研发实验室 " 向 " 全球 AI 平台公司 " 进化的必然转变。
所以今天无论是 OpenAI 与甲骨文在算力层面的合作,还是 AWS 同时也为 Anthropic 提供云算力成为其核心的训练伙伴,并计划使用 Trainium 和 Inferentia 芯片来训练、部署 Claude 下一代基础模型,都并不稀奇。
毕竟旧时代需要一个最强的伙伴,新时代则需要一个更大的 " 朋友圈 "。
打破英伟达神话
在更多合纵连横到来之前,这场播客透露的信息,或许要等 " 第二个 AWS"、" 第三个 AWS" 出现,外界才会真正读懂。
大部分人关注他们说了什么,更值得思考的是:为什么在这个节点,他们要坐在一起,以同盟的姿态对外发声。
上周几乎成为了硅谷极具动荡的一周,OpenAI 刚刚宣布重组,英伟达用 GTC 再次轰炸科技圈,而 Meta、Google、微软几家巨头连续发完财报之后,在这场播客中,Sam Altman 和 Satya Nadella 几乎回应了 OpenAI 和微软合作的一切问题,同时也暴露出了双方更大的野心。
当主持人 Brad Gerstner 将话题抛向当前全球公认的难题:" 算力稀缺 " 时,一直表现得沉稳、顾全大局的 Satya Nadella,终于不再 " 端水 ",抛出了第一个 " 暴论 ":未来的算力,一定是过剩的。真正的瓶颈并非 GPU 芯片本身,而是部署这些算力的物理环境:包括数据中心的建设速度、能源供应、以及冷却系统。他强调,建造足够的数据中心并为其提供能源,才是通往 AGI 道路上更艰巨的挑战。
这个回答颇为意外。更有意思的是 Sam Altman 的反应——他不仅没有反驳,反而迅速跟进,从另一个角度强化了这一观点。
根据播客内容,Altman 承认,为了实现 AGI,他们需要 " 多到令人难以置信的算力 ",但他话锋一转,明确指出:"总有一天,算力一定会过剩——至于是两三年后,还是五六年后,我说不准,但这肯定会发生,而且可能会多次发生。比如,如果大规模、极低成本的新型能源突然上线,签了长期合约的公司就会被 " 烧惨 "。
Nadella 紧接着补充道:" 我认为 Sam 刚才提到的一点其实外界谈得还不够多:比如,OpenAI 在推理层面(inferencestack)针对 GPU 所做的优化。我们常常谈论摩尔定律带来的硬件性能提升,但实际上,软件层面的效率改进才是呈现出更强指数级增长的部分。"
这番表态颇为微妙。
要知道,在过去的几年里,英伟达不仅是 OpenAI 最核心的 GPU 供应商,双方更将建立更紧密的合作关系。根据此前报道,双方已达成或正在推进宏大的战略伙伴关系,有消息称计划部署一个高达 10 吉瓦(Gigawatts)的 NVIDIA AI 超级计算机,首批系统预计在 2026 年上线,整个项目的投资金额可能超过 1000 亿美元。
在这样的背景下,Altman 和 Nadella 却不约而同地 " 轻化 GPU 的重要性 ":一个强调基建瓶颈,一个强调软件优化,这绝非随口一说。
Nadella 和 Altman 的言论,本质上是在向市场传递一个新信号:GPU 固然重要,但它只是拼图的一块。真正稀缺且难以复制的,是将数百万个 GPU 高效、稳定地整合在一起的超大规模数据中心、全球能源调度能力和系统工程能力。
他们试图将价值链的重心,从 " 芯片制造 " 拉回到 " 平台服务与系统集成 " 上,强调微软作为 " 基建狂魔 " 的不可替代性。
很显然,尽管这一周硅谷发生了诸多大事,但 GTC 仍然是重中之重。英伟达在大会上展示的技术路线图和产品布局,再次点燃了市场对 "GPU 稀缺性 " 的狂热情绪。而 OpenAI 和微软选择在此刻联袂发声,不仅是为了回应外界对他们合作关系的质疑,而是为了抢在英伟达叙事彻底固化之前,重新定义 AI 产业的价值分配逻辑。
事实上,OpenAI 没有抛弃微软,也从未完全押注英伟达,新局刚开,诸君别急。


登录后才可以发布评论哦
打开小程序可以发布评论哦