
本周,微软公布了其第二代自研 AI 芯片 " 玛雅 200",同时推出软件配套工具,计划率先在美国艾奥瓦州的一座数据中心投入使用。
亚马逊、微软、谷歌等头部云厂商当下都在自研 AI 芯片,尤其是针对 AI 训练场景的芯片,目的是减少对英伟达的依赖。而基于这种情况的担忧,英伟达长期以来也在培植像 CoreWeave 和 Crusoe 这样的新兴 AI 云初创公司,并通过直接将搭载其芯片的服务器出租给企业客户,以抢占早已竞争激烈的云计算市场。
AI 云竞争重心的变化,既是机会,也在抬高行业门槛。
亮眼的后起之秀,也依附于大厂
AI 大模型需求的迸发,早已让 AI 算力 /GPU 云服务市场的排位悄然发生转变。
2025 年末,SemiAnalysis 公布了一份全球 AI 云玩家的报告,过去 Top 级的 AWS、Azure、GCG 等云厂商被排在了第二三梯队,而 CoreWeave、Nebius、Lambda、Crusoe 等 AI 创企业竟成为了前排选手。

笔者注意到,2025 年美国 AI 初创企业总体融资依旧极度火热,AI 相关融资同比增长超过 70%,过亿美元融资轮次的公司数量持续增长。其中,AI 专用芯片、服务器、AI 云服务平台类的创企是更受资本偏爱。
顺着 AI 云的需求浪潮,新进厂商都在尝试抓住一个独特切入口。
CoreWeave
CoreWeave 无疑是其中最亮眼的一位。凭借曾经在以太坊挖矿的经验,CoreWeave 囤积了不少 GPU,且具备优秀的优化能耗与调度能力。2019 年,正式更名后,CoreWeave 就将手上囤积的 GPU 和自研调度系统改为面向 AI 渲染和机器学习的 AI 云,强调 " 比传统公有云有更高性价比 "。
2023 年借大模型爆发的浪潮,CoreWeave 拿下了与 OpenAI、微软等大厂的大额 AI 云订单,营收数倍增长。2025 年,CoreWeave 已经与 OpenAI 达成三项新的合作协议,总合作订单额达到 224 亿美元,这些订单任务主要针对 AI 模型的训练领域。2025 年 9 月,CoreWeave 与新客 Meta 签署一份为期 6 年、价值 142 亿美元的合作协议。这也让 CoreWeave 成功从 " 矿工 " 逆袭,成为 200 亿美元级别的 AI 云 " 新贵 "。
Crusoe
与 Coreweave 的发展路径类似的是,Crusoe 属于从能源领域转身,顺势切入 AI 云领域。起初 Crusoe 是一家利用油田燃气火炬气放空的公司,通过在风电太阳能场附近部署数据中心,利用电网消纳多余电力,从而实现节能减排。起初,团队使用 ASIC 芯片,随后团队意识到 GPU 更通用,便开始在油田部署 AI GPU 集群,为机器学习等应用提供算力,将 " 废气→电力→ AI 计算 " 做成商业模式。等到大模型需求爆发时,Crusoe 已经有一批能就地利用廉价能源的基础设施,成为低碳型 AI 基建的代表厂商。
自 2025 年 3 月以来,Crusoe 就一直在努力扩大其数据中心规模,期间,Crusoe 与 OpenAI 合作开发了 Abilene,Abilene 作为 " 星级之门 " 项目之一,其装机容量超过 1.2GW。截至年底,Crusoe 建成的数据中心容量已经达到 3.4GW。
Nebius
作为 Coreweave 的最直接竞争对手,Nebius 已经与包括微软、Meta 在内的大型科技公司签署合作,单一大额合同金额达数十亿美元。Nebius 还与微软签署了一份为期五年、价值 174 亿美元的合同,为其提供数据中心服务。据最新披露数据,Nebius 的 2025 年三季度季度收入同比增长 355%,尽管增速放缓,但其调整后 EBITDA 提前实现盈亏平衡,这无疑是积极信号。
追溯其历史能够发现,Nebius 在 2023 年由 Yandex 拆分为俄罗斯业务与国际业务,原 Yandex Cloud、自动驾驶等国际资产被装入 Nebius 团队,团队保留了原有云平台的大量工程和运营经验。自此,Nebius 以荷兰为基地,继承了完整的自研云计算技术栈,选择走 " 全栈自建 + 垂直整合 " 的 AI 云路线,而不是简单倒卖硬件。这种低成本资本运作的模式,得到了多家 AI 初创公司模仿。
Lambda
Lambda 最早以卖给 AI 研究团队深度学习工作站、服务器和 GPU 集群闻名,逐步积累了软硬一体的 AI 训练环境和工具链。随着业务上云模式的转变,Lambda 推出了面向 AI 开发者的 GPU 云和训练平台,同时也保留了本地硬件业务,定位为专为 AI 大模型训练和推理打造的数据中心。截至 2025 年,公司通过股权和债务累计融资 14 亿美元,2026 年年初又宣布获得 15 亿美元巨额融资。
能够看到,这些如今发展成为 AI 云领域的新贵,早在大模型浪潮之前就已经囤积了重要的 AI 硬件基础—— GPU。而这些公司同样与英伟达关系密切:
与英伟达绑定最深的 CoreWeave,由英伟达注资持股→ CoreWeave 采购其 GPU →英伟达承诺回购 GPU(排他性),这种模式甚至被外界视为 " 循环交易 "。
Nebius,由英伟达投资→ Nebius 用英伟达芯片构建 GPU 基础设施→与微软签订 GPU 合同消耗容量。
Lambda,2025 年与英伟达签订了 15 亿美元合同,4 年内从 Lambda 租赁 1.8 万台 GPU,英伟达投资 Lambda → Lambda 构建英伟达 GPU 基础设施→英伟达从 Lambda 回购。
这也让外界不难认为,培植像 CoreWeave 和 Crusoe 这样的新兴 AI 云初创公司,对于英伟达而言是必须要走的路。
老牌玩家 " 危 " 与 " 机 "
在 AI 云玩家中,除了三大头部云厂商,以及上面提及的 AI 初创企业外,还有一位老牌选手 Oracle 不容忽视。而实际上,这家厂商在 SemiAnalysis 的全球 AI 云玩家报告中同样排在前列。
2025 年 9 月,Oracle 外界对 AI 云预期的推动,其股价创下历史高位,但随后到 12 月已累计下跌近乎一半。尤其是在 12 月 2026 财年第二季度财报发布后,其股价当日下跌约 11% – 15%,并带动一揽子 AI 概念股下挫。
笔者此前分析认为,Oracle 目前的发展路径存在一定风险性。这与 2025 年年初以微软为代表采取的 AI 基建去泡沫化动作有很大关联性。此外,建设大规模数据中心依赖于长期且高昂的现金流投入,GPU 集群的地点电力瓶颈也已经在美国多个州地区出现。
一旦对大规模训练的长期需求无法精准预估,那么之前为数据中心投入的风险也将成倍而来。摩根士丹利数据显示,2025 年美国 AI 数据中心相关资本开支增长了四倍,已接近 4000 亿美元级别,集中在少数巨头身上,且结构高度单一。

与此同时,不少分析人士认为,美国目前过度建设数据中心存在风险。一些大型电力企业高管已经在财报上警告:为 AI 数据中心扩建电力和燃气基础设施存在过度建设的真实风险,在美国多个州抢项目,重复计入收入预期。美国佐治亚州公共事业委员会 ( PUC ) 指出,数据中心项目取消率明显偏高,结合数据,此前预测的数据中心相关增长在过去 18 个月内已被削减了 44%。德勤预估,美国 AI 数据中心的用电需求可能从 2024 年的约 4GW,增长到 2035 年的 123GW,增幅超过 30 倍。甚至,谷歌和微软已采取措施自给自足实现电力供应,此前谷歌斥资 48 亿美元收购电力生产商 Intersect,微软则提高电价并补贴电网扩建。
电网压力、接入延迟和电价等能源瓶颈正成为当下核心考验。
再回到 Oracle 自身。目前市场对 Oracle 有很大顾虑,核心在于其投入的节奏远快于收入兑现的节奏。
一是 AI 数据中心资本开支远超预期。Oracle 在最新季度披露 AI 数据中心相关资本开支约 120 亿美元,远高于上一季度的 85 亿美元,也明显超过市场预期的约 82.5 亿美元。公司还把全年资本开支指引从 350 亿美元上调到 500 亿美元级别,意味着未来几个季度还要持续大量烧钱建 AI 机房和基础设施。这些支出大量依赖负债和现金消耗,半年内已耗掉约 100 亿美元现金,这无疑引发了市场对杠杆率和财务安全的担忧。
二是收入增速与云指标不及 AI 故事的高度。2026 财年第二季度,Oracle 当季总收入约 160.6 亿美元,同比增 14%,但略低于市场预期的 162 亿美元,属于增长不差,但达不到过高预期。其云业务(OCI)收入约 41 亿美元,同比大增约 68%,但这一数字在绝对体量上仍明显落后于 AWS、Azure 和谷歌云,市场原本期待的是爆表式加速。更关键的是,被视为未来增长风向标的剩余履约义务(RPO)和云业务订单增速低于前几季度 Oracle 给出的极度乐观指引,打破了直线上扬的幻想。
此外,Oracle 一直对外宣称的 AI 大单 + 高杠杆,正放大外界对 AI 泡沫的担忧。Oracle 此前因与 OpenAI 签署大规模算力 / 云合作协议,以及和 Meta 等巨头签订 AI 云合同。2026 财年第一季度显示,Oracle 与三家不同客户签署了四份价值数十亿美元的合同,其中包括与 OpenAI 达成价值超过 3000 亿美元的交易。
业内人士认为,这些数十亿美元的合同可能会对其 AI 云业务的利润率造成影响。市场后来发现,这些订单一方面兑现周期长,另一方面还部分依赖于复杂的融资结构、债务和与合作伙伴的资金关系。同时,正如笔者此前提及的,Oracle 债务和现金流压力上升,未来几个季度可能要更强调资本开支的阶段性收敛。
Oracle 在经历了一次急跌后给市场带来了一个重要信号:Oracle 能否真正意义上成为三大云厂商之后的 " 第四朵云 " 仍有待观察,而其他的 AI 云厂商们也终将面临与 Oracle 价值重估的同样考验。
再看 2026
AI 基建已成为 AI 新云厂商竞争的战场,过去云厂商之间的竞争主要集中在计算资源可用性、企业合作关系以及价格方面。
但如果从需求端来看,越来越多对 AI 有诉求的企业客户开始介入基础模型的相关业务,客户选择的 AI 技术栈正决定其运行和扩展业务的市场份量。GPU 资源的稀缺性、不断演进的模型生态,头部云厂商所倡导的不同云策略,例如 AWS 的模型中立,阿里云的模型开源策略等,这些都在影响客户对于 AI 云的决策方式。
AWS 的市场份额有所下降,因为从结果上来看,AWS 提供的仍然是中立模式,AWS 没有专有或者说更强有力的基础大模型作为其技术栈的底座。因此,希望获得更广泛计算力、能与多个第三方模型进行互操作的企业客户将热衷于 AWS。
对于微软而言,Azure 仍然依赖其模型分销渠道以及与 OpenAI 和 Anthropic 的合作关系,这种策略在高端市场表现良好,但并未转化为企业客户更强劲的接受度。其合作关系份额的略微下降反映出,企业客户正转向微软生态中能提供丰富 AI 实用工具的预期。
谷歌的 AI 技术栈正摆脱早期的实验模式,而转化给长期可提供给客户的云服务。目前谷歌的大模型 Gemini 与 AI Studio 和 Vertex 生态集成,同时通过比特币矿企 Cipher Mining 持续扩展基础设施。这些做法都在促使企业客户将业务搬上谷歌云。这一策略行之有效:2025 第三季度,谷歌云积压订单环比增长 46%,达到 1550 亿美元,其中 AI 收入是关键驱动因素。

那么,2026 年 AI 云市场格局将发生怎样的变化?
CBIsights 研究判断, 2024-2025 年期间,与此前三年(2022-2024)会有明显格局上的增量变化:其中,谷歌云的占比将提高 4%。目前约有 25% 的 AI 软对采用多云架构。
CBIsights 指出," 这并非出于架构偏好,而是因为 GPU 的稀缺迫使团队在任何能够找到计算资源的地方进行部署。而大多数公司最开始会选择单一云平台,后期则因规模扩张的需要部署到其他云平台。随着头部 AI 云服务商将竞相增加容量,预计这些需求驱动的多云模式将在未来 12-24 个月内持续增长。"
结合 Air Street Capital 此前发布的《人工智能现状报告 2025》,尽管 CoreWeave、Nebius、Lambda 和 Crusoe 等新云平台不断涌现,但实际使用这些平台运行 AI 工作负载的用户却寥寥无几。相比之下,报告指出用户更倾向于直接使用 OpenAI、谷歌云和 Anthropic 等平台。这意味着新云厂商的的算力服务对象其实仍然是专注于 AI 的实验团队和超大规模计算机构。
对于海外头部云厂商而言,CUDA 生态下开发者与英伟达软硬件栈往往高度绑定,为减少对英伟达的依赖,自研 AI 芯片也是必经之路;与此同时,随着未来面向推理和 Agent 的业务应用越来越多,云厂商更需要密切关注推理延迟、并发、Token 成本、长上下文等指标优化,而不是只针对训练场景做算力优化,云厂商将更加在意成本和定制需求的满足。
一般来说,产业链越靠上游,越需要特别大的规模效应,上游企业往往对技术的整合能力、需求的共性把握会特别强。再看 2026 年,AI 云作为基础设施的需求是长期存在的,AI 时代能够去发力的这波新旧云厂商,自然会往上游走一走,去撬动市场的潜力和可能。(作者 | 杨丽,编辑 | 盖虹达)


登录后才可以发布评论哦
打开小程序可以发布评论哦