环球老虎财经 2小时前
全球算力产业,正在陪着OpenAI走钢丝
index.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

2026 年 1 月的第三周,全球科技界被 OpenAI 抛出的两个重磅消息震动。这两个消息看似独立,实则像一枚硬币的两面,精准地勾勒出整个行业极度分裂的生存状态。

第一面是 " 极致的扩张 "。1 月 14 日,OpenAI 宣布与芯片独角兽 Cerebras 达成一项价值超过 100 亿美元的战略合作,后者将在 2028 年前向其交付 750 兆瓦的专用于 AI 推理的计算能力。这笔交易不仅是 OpenAI 在英伟达生态之外最大规模的算力押注,更标志着其对算力的渴求已突破单一供应商的承载极限。紧接着,OpenAI 在其官方博客中披露,公司年化收入已在 2025 年突破 200 亿美元,相比 2023 年的 20 亿美元增长了 10 倍,而这一增长曲线与其算力规模的扩张(3 年内增长 9.5 倍)几乎完全吻合。这清晰地表明,算力即收入,扩张即生命。

第二面是 " 现实的焦虑 "。仅两天后的 1 月 16 日,OpenAI 宣布计划在美国测试 ChatGPT 广告业务。这一举措标志着这家曾高举 " 硅谷理想主义 " 旗帜的公司,在巨大的财务压力下,不得不向商业现实低头。尽管 OpenAI 的 CFO 将此举描述为 " 让智能更普惠 " 的多元化收入模式的一部分,但其背后无法掩盖的是泄露的财务数据所揭示的严峻现实:OpenAI 的推理成本已超过收入,用户用得越多,公司亏损越快。广告业务的推出,是在其累计高达 1.4 万亿美元的基础设施承诺面前,一次补救现金流的无奈尝试。

OpenAI 的矛盾处境是整个 AI 行业的缩影。一方面,是基于真实需求和技术突破的产业共识与资本狂欢;另一方面,是摇摇欲坠的商业模式与系统性的财务风险。这种矛盾,会带领全球算力产业走向何方?

OpenAI 的帝国游戏

长期以来,英伟达凭借其 H100/B200 系列 GPU 垄断了高端 AI 训练与推理市场。然而,随着以 OpenAI 为首的 AI 巨头对算力的需求呈指数级增长,以及对成本控制的日益迫切,这种单极格局正在被打破。

此次 OpenAI 与 Cerebras 的百亿美元级合作,其核心逻辑在于 Cerebras 独特的晶圆级系统技术路径。与传统 GPU 需要通过复杂的互联技术将数千个芯片连接成集群不同,Cerebras 在一块完整的晶圆上集成了高达 4 万亿颗晶体管,形成一个单一的、巨大的处理器。这种革命性的架构设计,使其在处理大规模 AI 推理任务时,响应速度大大超过传统的 GPU 系统。

对于正努力将 ChatGPT 等产品商业化落地的 OpenAI 而言,这笔订单的战略意义远超扩充算力池本身,它直指大模型商业化的核心痛点——在高并发请求下实现低延迟、低成本的推理服务。OpenAI 基础设施负责人 Sachin Katti 明确指出:" 算力是衡量 OpenAI 收入潜力的最关键因素。" 这笔交易正是 OpenAI 有意识地寻找低延迟、高性价比推理解决方案以加速商业化的关键一步。

事实上,OpenAI 正在构建一个 " 哑铃型 " 的芯片采购结构。在对性能要求极致的高端训练端,它继续依赖英伟达的顶级 GPU 以确保模型能力的边界突破;但在规模更为庞大、对成本和延迟更敏感的推理端,则激进地引入 Cerebras、谷歌的 TPU 以及自研的 ASIC 进行分流。早在 2025 年 6 月,OpenAI 便打破常规,开始租赁谷歌的 TPU 芯片。根据产业数据,谷歌 TPU 在推理场景下的能效是 GPU 的 2 倍以上,而训练成本仅为英伟达方案的 20%。此外,OpenAI 与博通合作的自研 AI 推理芯片项目也在稳步推进,该芯片采用台积电的 3 纳米先进工艺,预计将在 2026 年投入生产。

这一系列动作清晰地表明,全球最顶级的 AI 公司正在形成 " 英伟达芯片 + 替代芯片 " 的双引擎战略。摩根士丹利预测,受此趋势影响,英伟达在 AI 芯片市场的份额可能从目前约 80% 的高位下降至 60% 。这一份额变动并非单纯的市场波动,而是半导体产业从 " 通用 GPU" 主导,向 " 训练通用化、推理专用化 " 架构演进的明确信号。推理市场的巨大蛋糕,正在被 Cerebras、谷歌 TPU、OpenAI 自研芯片以及 AMD 等追赶者加速瓜分。

同时,OpenAI 对半导体产业的驱动力,不仅体现在芯片采购的多元化上,更体现在对数据中心等基础设施的巨量投入中,这场投入的规模之大,已经催生了半导体与能源产业的深度绑定。

截至目前,OpenAI 已承诺从甲骨文、Crusoe、CoreWeave、英伟达、AMD 及博通等供应商处获取超过 26 吉瓦(GW)的算力资源。这一能耗规模相当于一个中等国家的电力需求,使得 " 电力 " 本身成为比芯片更为稀缺的战略资源。微软 CEO 萨提亚 · 纳德拉曾坦言," 我们不缺 AI 芯片,但缺电力 ",大量 GPU 因无法获得稳定的电力供应而闲置。这场基础设施战争,本质上是一场能源战争。

在这一轮建设中,Crusoe 与 OpenAI 的合作最具代表性。Crusoe 位于德州阿比林的数据中心项目已扩展至 1.2 吉瓦的庞大规模,分阶段建设 8 栋楼宇,单栋可支持 5 万块英伟达 GB200 NVL72 芯片。该项目的关键创新在于尝试解决制约 AI 发展的 " 缺电 " 瓶颈。通过与能源技术公司 Lancium 合作,Crusoe 整合了大规模后备电池储能、太阳能资源,并结合天然气涡轮机作为备用,构建了一个能源自给型的算力基地。这种设计让 Crusoe 成为解决 OpenAI" 电力瓶颈 " 难题的关键基础设施商,直接将闲置的 GPU 转化为可用的算力。

与此同时,算力租赁商 CoreWeave 也在激进扩张。这家公司已在全球 32 个数据中心部署了超过 25 万块英伟达 GPU,并已锁定 1.3 吉瓦的电力容量。CoreWeave 与 OpenAI 签署了总价值高达 224 亿美元的合作协议,其中包括 2025 年 9 月新增的 65 亿美元协议。这种体量的合同不仅支撑了 CoreWeave 上百亿美元的估值,更固化了 " 芯片 - 数据中心 - 云服务 " 的重资产投入模式

微软与甲骨文的动作则更为宏大。作为 OpenAI 最重要的合作伙伴,微软已为其部署了 40 万块 GB200 GPU,总云服务承诺据报道已飙升至 2500 亿美元 。甲骨文则签下了年度 300 亿美元的数据中心协议,并计划在美国多州建设 4.5 吉瓦的额外电力容量以满足需求 。

这些惊人的数据表明,半导体产业链的价值重心正在下沉——从单纯的芯片设计与制造,延伸至包含电力管理、液冷散热、超大规模集群调度在内的综合基础设施领域。未来的竞争,将不仅是芯片性能的竞争,更是对能源、土地和综合工程能力的全面竞争。

AI 行业的财务现实

在宏大的采购与基建数据背后,OpenAI 乃至整个 AI 行业的财务报表揭示了产业链面临的潜在系统性风险。根据微软泄露数据,2025 年上半年 OpenAI 营收仅 43 亿美元,同期的推理成本已经超过收入。这不是简单的亏损问题,而是商业模式根本性的倒悬——用户越多,公司亏损越快。

汇丰银行的分析预测,OpenAI 在 2026 年的现金消耗将达到 170 亿美元,较 2025 年的 90 亿美元几乎翻倍。按照当前的商业轨迹,到 2030 年,OpenAI 的累计租赁成本将高达 7920 亿美元,到 2033 年更是升至惊人的 1.4 万亿美元。这意味着,使 OpenAI 在 2030 年实现 1300 亿美元的营收,仍需额外筹集巨额资金来弥补缺口。

这种 " 推理成本倒挂 " 的现象,深刻解释了为什么 OpenAI 急于引入 Cerebras 和 TPU 等替代方案,并匆忙上线广告业务。为了维持运转,OpenAI 采取了激进的 " 供应商融资 " 模式,即通过签署长期的巨额采购承诺(如对微软的 2500 亿美元承诺、对甲骨文的 3000 亿美元承诺)来换取当下的资源投入。这种模式将半导体供应链与 OpenAI 的商业前景紧密绑定。甲骨文的 300 亿美元协议要到 2028 财年才开始计入收入,这意味着供应商不仅是在卖产品,更是在对 OpenAI 未来的支付能力进行风险投资 。

更令人担忧的是,这种风险正在通过金融工具被放大并扩散。摩根士丹利估计,到 2028 年,全球数据中心建设将耗资 2.9 万亿美元,其中一半需要通过外部融资解决 。这催生了私人信贷、高收益 " 垃圾债 " 等影子银行工具的爆炸式增长。例如,Meta 已从私人信贷市场借款 290 亿美元建设数据中心。据摩根大通统计,AI 相关行业已占美国投资级债务的 15%,超过了银行业。一个危险的 " 债务金字塔 " 正在形成,一旦头部 AI 公司因商业化失败而违约,其风险将通过这些复杂的金融工具迅速传导至整个信贷市场,引发连锁反应。

AI 泡沫之辩

OpenAI 的现状,成为了全球关于 "AI 泡沫 " 激烈辩论的风暴眼。这场辩论的核心,是供给侧的坚定信心与需求侧的深层忧虑之间的对撞。

供给侧的信心,源于全产业链的集体行动。支撑这场乐观主义的,首先便是位于产业链最上游的晶圆代工巨头——台积电所投下的 " 终极信心票 "。在 2026 年 1 月 15 日的法说会上,台积电宣布了创历史纪录的资本支出计划,预计 2026 年将投入 520 亿至 560 亿美元,较 2025 年的 409 亿美元大幅增长 27% 至 37% 。这一数字不仅远超市场预期,更重要的是其资源投向:其中高达 70%-80% 将用于 3 纳米、2 纳米等最先进的制程技术,直接服务于英伟达、AMD、苹果等 AI 芯片巨头的下一代产品。

头部云服务商的业绩是衡量真实需求的指标。微软在 2026 财年第一季度的报告显示,其 Azure 云服务收入同比增长高达 40%,报告明确指出增长由 "AI 工作负载 " 驱动 。无独有偶,Google Cloud 的 Gemini 模型的 API 调用量在短短五个月内翻了一番,达到 850 亿次 。这些不再是遥远的预测,而是已经计入资产负债表的真实收入。

与此同时,资本市场的狂热仍在继续。除了 OpenAI 高达 8000 亿美元的估值,马斯克的 xAI 在 2026 年 1 月完成了 200 亿美元的 E 轮融资,估值达到 2500 亿美元 。OpenAI 的主要竞争对手 Anthropic,更是在短短四个月内估值翻倍,以 3500 亿美元的估值寻求超过 250 亿美元的新一轮融资 。这种跨地域、跨公司的资本注入,反映了全球投资者对 AI 长期价值的普遍看好。

需求侧的担忧,则来自系统性的结构风险。OpenAI" 烧钱模式 " 的困境并非个例。数据显示,中位数的 A 轮 AI 公司每获得 1 美元的新收入,需要消耗高达 5 美元的现金 。更令人警醒的是,麻省理工学院的一份报告指出,高达 95% 实施生成式 AI 工具的组织,其投资回报为零这揭示了一个致命问题:当前 AI 的价值创造能力,远不足以支撑其巨大的运营成本。

对泡沫的担忧不再是外部观察家的杞人忧天,而已成为行业内部的共识。包括 Google CEO 桑达尔 · 皮查伊、亚马逊创始人杰夫 · 贝索斯在内的多位科技巨头领袖,都公开承认 AI 行业存在 " 非理性因素 " 和 " 泡沫 "。"AI 教父 " 之一的约书亚 · 本吉奥更是直言:" 我们很可能会撞上一堵墙 …… 那可能是一场真正的金融崩溃 "。微软 CEO 萨提亚 · 纳德拉也表达过对 AI 泡沫的紧张。

决定命运的24 个月

OpenAI 与全球半导体产业的命运已被紧密绑定。基于当前的财务模型和产能规划,市场终局将在未来 24 个月内见分晓,并导向两种极端:

其一,如果头部 AI 公司无法证明商业模式的可持续性,数千亿美元的基础设施合同将面临违约,信贷市场连锁爆炸,台积电等晶圆厂的巨额产能将严重过剩,全球半导体行业营收可能从 2025 年的 7000 亿美元量级暴跌至 4000 亿美元以下。

其二,如果 AI 公司们能通过广告、企业服务及更高效的芯片组合实现 " 软着陆 ",半导体产业将迎来黄金时代,ASIC 化和定制芯片将真正普及,能源与基础设施将成为新的核心竞争力,AI 也将从 " 烧钱 " 的工具转变为驱动全球经济的核心引擎。

当前,整个 AI 行业正行走在钢丝之上。未来两年,OpenAI 能否将 ChatGPT 的近 10 亿用户转化为可持续的收入,能否将推理成本压缩至可控范围,这些问题的答案,不仅决定了它自身的存亡,更将决定全球科技产业未来五年的走向。时间已经开始倒数,而赌桌上的每一个筹码,都价值千金。

评论
大家都在看