OpenAI 还没上市,它的 " 算力小弟 " 先要上市了。
2026 年 5 月,AI 芯片制造商 Cerebras Systems 在最新 S-1/A 文件中披露 IPO 发行细节,股票代码 CBRS,计划发行 2800 万股,定价区间 115-125 美元,募资规模最高可达 35 亿美元,目标估值达 266 亿美元。
这件事有点反常。
因为有黄仁勋这座大山在,资本怎么可能容得下小小的一只 Cerebras 呢?
大模型公司烧钱,云厂商买卡,创业公司排队等 GPU,最后利润大多流向卖铲子的英伟达,这才是现状。
但 OpenAI 似乎想要改写这条链路。
5 月 6 日,OpenAI 组了个局,把自己放在了龙头老大的座位上,然后把英伟达、AMD、英特尔、博通、微软这些明显存在竞争关系的芯片公司拉到一起,推出了一套面向大型 AI 训练集群的网络协议(MRC,Multi-Rail Compute)。
表面上,这是一次超算网络合作。更深一层看,我认为 OpenAI 是想要重新分蛋糕了。
首先可以明确一点,OpenAI 没有抛弃英伟达,它也没有办法抛弃英伟达。至少在当前阶段,OpenAI 绝对没有勇气 All in 一个 " 英伟达杀手 "。
相反,OpenAI 正在把原本被英伟达一家公司强势覆盖的算力体系拆开:训练归训练,推理归推理,网络归网络,云归云。不同负载,用不同芯片;不同环节,找不同供应商。
Cerebras 就是在这个时候被推上牌桌。
Cerebras 当然还不是英伟达的对手,也不可能在短期内撼动 CUDA 和 GPU 集群构成的护城河。
但 Cerebras 的上市,真正值得看的地方,不是又一家 AI 芯片公司冲刺 IPO,而是 OpenAI 开始把推理这门生意单独拎出来定价了。
01 押注推理
事实上,这已经是 Cerebras 第二次冲击 IPO 了。
2024 年 10 月,Cerebras 曾经提交过上市申请,但很快就撤回了。
原因是美国外资投资委员会(CFIUS)对它的阿联酋投资方 G42 展开审查。那时候,阿联酋 G42 人工智能公司不仅是 Cerebras 的股东,还是它最大的客户,贡献了超过 80% 的收入。
这种深度绑定的关系,再加上当时美国与阿联酋之间略微的不和谐,自然让监管部门不太放心 Cerebras。
到了 2025 年 3 月,CFIUS 终于放行,G42 的股份被重组为无投票权股份,监管风险暂时解除。
但 Cerebras 并没有立刻重启上市,而是等到了 2026 年 5 月,恰好赶上了 AI 基础设施投资热。
Cerebras 上市的真正意义,其实不在于它又是一家 AI 芯片公司要 IPO。
市场上不缺芯片公司,缺的是一个故事,一个能让资本相信 " 推理市场可以独立定价 " 的故事。
OpenAI 目前刚刚开始主动重组供应链,把不同芯片匹配到不同工作负载,这件事本身就是在细化芯片产业。
训练是一层,推理是一层,网络是一层,云分发是一层,应用场景又是一层。每一层都可以有不同的玩家,每一层都可以重新定价。
Cerebras 在 OpenAI 的算力供应链中,负责的就是推理这一环。
Cerebras 的核心竞争力,在于它那颗独特的晶圆级引擎芯片 WSE-3。
传统芯片都是从一整片晶圆上切割出很多小块,每一小块是一颗芯片。
英伟达的 GPU 就是这么做的,然后再把很多颗 GPU 通过高速互联组成集群。这种方式的好处是成熟、稳定、生态完整,坏处是芯片之间来回搬数据的成本很高,尤其是在推理场景,延迟会被放大。
Cerebras 的 WSE-3 完全不同。
它直接把整片 12 英寸晶圆做成一颗巨型芯片,面积达到 46225 平方毫米,相当于一张 A4 纸的三分之一大小。
WSE-3 基于台积电 5nm 工艺,拥有 4 万亿个晶体管,90 万个 AI 优化核心,44GB 片上 SRAM,内存带宽达到 21PB/s。如果和英伟达 H100 对比,WSE-3 的面积是 H100 的 57 倍,核心数量是 52 倍,片上内存是 880 倍,内存带宽是 7000 倍。
这些数字听起来很夸张,但关键不在于 " 大 ",而在于 " 快 "。
在推理场景,尤其是当下最火的长文本输出、实时交互、代码生成、agent 这些需要低延迟的任务上,Cerebras 的优势非常明显。
它的 CS-3 系统在推理速度上比英伟达 DGX B200 快 21 倍,成本和能耗都降低到三分之一。
快,就意味着 OpenAI 可以在单位时间内服务更多的客户。
训练市场是英伟达的绝对主场,CUDA 生态、成熟工具链、大规模 GPU 集群,这些护城河短期内很难被撼动。
推理市场不一样,此前推理市场是个非常小众的市场,算力大头在训练。但是随着越来越多的行业、应用开始使用 AI,推理正在成为 AI 应用商业化的关键。
早期,Cerebras 主要卖硬件系统。一套 CS-3 系统售价高达数百万美元,客户群体主要是超大规模数据中心、云服务商和政府机构。这种模式的问题在于,客户采购门槛太高,销售周期长,收入波动大。
从 2024 年开始,Cerebras 逐步转向基于自有芯片的云服务模式。客户不需要购买昂贵的硬件,只需要按需使用 Cerebras 的算力集群。
2025 年,Cerebras 的财务数据非常亮眼。全年营收 5.1 亿美元,比 2024 年的 2.9 亿美元增长了 76%。更重要的是,净利润达到 8790 万美元,相比 2024 年 4.85 亿美元的巨额亏损,实现了扭亏为盈。
但 Cerebras 的客户集中度太高了。
2025 年,阿联酋 AI 公司 MBZUAI 贡献了 62% 的收入,G42 贡献了 24%,前两大客户占比高达 86%。未来,OpenAI 将成为 Cerebras 最大的客户。
这确实给了 Cerebras 大量的收入,不过这就意味着 Cerebras 必须受制于这些大客户,不能有太多自己的想法。
02 OpenAI 也在转型
2026 年 1 月,OpenAI 与 Cerebras 宣布签署多年协议。
根据协议,Cerebras 将为 OpenAI 提供 750 兆瓦的低延迟 AI 算力,部署将分阶段进行到 2028 年,交易总价值超过 200 亿美元。这是全球最大的高速 AI 推理部署项目,也是 OpenAI 算力战略的一次重大转向。
但这份协议的深度,远不止采购合同这么简单。
OpenAI 创始人奥特曼、总裁布鲁克曼、前首席科学家伊利亚、董事会成员亚当 · 安戈洛(Adam D ‘ Angelo),这些 OpenAI 的核心高管,都以个人的身份投资了 Cerebras。
你以为这就完了?早着呢!
OpenAI 还通过贷款、认股权证等金融工具,与 Cerebras 建立了长期利益绑定。这种超越简单供应商关系的深度合作,让 Cerebras 成为了 OpenAI 的资产,甚至我可以说,现在的 Cerebras,就是 OpenAI 的芯片部门。
这种绑定方式,在科技行业并不常见。
OpenAI 与 Cerebras 的合作,不能简单理解成 " 用 Cerebras 替代英伟达 "。
前文提到,OpenAI 在 2026 年 5 月 6 日专门和各位芯片龙头企业组了个局,合作开发 MRC 网络协议,用于提升大型 AI 训练集群的网络效率和韧性。
OpenAI 并没有放弃英伟达,但 OpenAI 也不想久居英伟达之下。
OpenAI 的真实意图是什么?
训练继续使用英伟达高端 GPU,推理引入 Cerebras 的低延迟方案,部分 GPU 采购 AMD 方案,网络协议开放化,云服务在 AWS、Azure、谷歌 Cloud 之间多家下注。
未来,OpenAI 还可能推进自研芯片。
这是一种 " 算力组合拳 " 策略,不同工作负载匹配不同系统,不再单独依赖英伟达的全栈方案。
这种战略转变的本质,是 OpenAI 正在从一家模型公司转变为算力架构公司。
以前,OpenAI 只能被动接受芯片厂商定义的技术路线。
英伟达出什么芯片,OpenAI 就用什么训练。
云厂商提供什么服务,OpenAI 就在什么平台上部署。这种被动状态,在 AI 竞争的早期阶段是可以接受的,因为那时候最重要的是快速迭代模型,而不是优化基础设施。
但现在不一样了。
当 ChatGPT 的周活跃用户超过 9 亿,推理成本越来越高,OpenAI 不能再被动得去等英伟达发布新产品,他们得主动设计更符合当下 AI 需求的算力组合。
OpenAI 正在做的,是把芯片供应商从 " 平台提供者 " 降维为 " 模块供应商 "。
在过去的 AI 算力市场,英伟达提供的不只是 GPU,而是一整套从硬件到软件、从芯片到网络、从单机到集群的完整解决方案。客户买的不是一颗芯片,而是一个生态。
这种完整性,既是英伟达的核心竞争力,也是它能够维持高毛利率和定价权的根本原因。
OpenAI 现在要打破这个完整性,英伟达的超级客户,开始逐渐掌握供应链的主导权。
这对英伟达来说,是比丢失订单更深层的冲击。
03 英伟达怎么说
虽然我前面下了很多利空英伟达的判断,但是我认为,Cerebras 上市,对英伟达的冲击不会很大。就像身上长了个粉刺、痱子一样无关痛痒。
英伟达目前仍然占据 AI 芯片市场约 80-90% 的份额。
CUDA 生态、GPU 供应链、NVLink 网络,这些护城河短期内很难被撼动。
Cerebras 的 WSE 芯片单价高达数百万美元,产能有限,客户群体主要是超大规模数据中心和云服务商,无法在短期内大规模替代英伟达 GPU。
更重要的是,CUDA 生态经过十余年积累,已经成为 AI 开发的事实标准。几乎所有主流 AI 框架、模型、工具链,都优先适配 CUDA。开发者社区、技术文档、最佳实践,全都围绕 CUDA 构建。
这种生态优势,不是一两年就能被追上的。
然而 Cerebras 对英伟达的威胁依然还是存在的。
过去,AI 公司几乎别无选择,只能使用英伟达 GPU。现在,至少在推理场景,客户有了可行的替代方案。这种选择权的出现,削弱了英伟达的定价权。
当 OpenAI 可以说 " 推理我用 Cerebras,训练我用英伟达 " 时,英伟达就失去了 " 全包 " 的议价能力。
如果 Cerebras 的故事将通,那么 AI 算力市场就真的开始分层了。
训练和推理的需求差异被明确化,专用芯片在细分场景的优势被验证。英伟达 " 一种芯片打天下 " 的叙事不再完全成立。市场也会从 " 通用 GPU 垄断 " 走向 " 场景化芯片组合 "。
在这个新格局里,英伟达在训练市场的优势依然稳固。但在推理市场,尤其是低延迟推理、实时交互这些场景,专用芯片的优势开始显现。
而且,还只是 OpenAI 这一家这么干。Anthropic 也开始和亚马逊、谷歌结盟。这些头部 AI 公司,都在通过多元化采购来降低对英伟达的依赖。
英伟达面临的挑战还不止于此。
AI 推理市场的快速增长,可能会超过训练市场。根据 LP Information/MarketPublishers 在《Cloud AI Inference Chips》这份报告中的预测,全球 AI 推理市场在 2026-2032 年期间的复合增长率将达到 28.9%。
推理场景,肯定更适合专用芯片。当推理市场的规模超过训练市场时,英伟达在推理领域的相对弱势,就会成为更大的问题。
不过英伟达的短期优势依然稳固。
2026 年,英伟达在 GTC 大会上强调了加速计算生态系统的深度,覆盖汽车、金融服务、医疗健康、工业、媒体、量子计算、零售、机器人和电信等多个领域。
黄仁勋把 CUDA-X 库称为英伟达的 " 掌上明珠 ",这套丰富的软件栈,是 Cerebras 没有的,也是英伟达又一道护城河。
英伟达的 Blackwell 架构即将大规模出货,性能和能效都有显著提升。英伟达在训练市场上的优势,将会进一步巩固。
但长期来看,英伟达必须适应一个新现实,他们正在从 " 唯一供应商 " 变成 " 核心供应商之一 "。
这个转变,不是因为英伟达变弱了,而是因为市场变大了,客户变强了,需求变复杂了。
当 AI 从实验室走向大规模商业化,当算力需求从训练扩展到推理,当超级客户开始主动设计算力架构,单一供应商的 " 完整解决方案 " 就绝对不再是最优的选择。


登录后才可以发布评论哦
打开小程序可以发布评论哦