作者声明:该图片由 AI 生成

文|姚金鑫(J 叔)
编辑|晓静
过去几年,AI 芯片行业有一个很有意思的现象,很多公司最初讲的故事,和后来真正活下来的原因,并不完全一致。
Cerebras,就是一个典型案例。
5 月 14 日,Cerebras 以每股 185 美元定价,募资约 55.5 亿美元,对应市值 398.17 亿美元。成为 2026 年迄今全球规模最大的 IPO。上市首日暴涨近 70%。

他讲的故事是:一颗刷新世界纪录的大芯片、一份超过 200 亿美元的 OpenAI 合同、一个超过两亿美金的 GAAP 净利润。
但如果把 Cerebras 的故事拆分成两层:一层是技术与产品的真实位置,一层是 IPO 招股书里写在白纸黑字上的另一面,这个故事可能会给资本市场留下更多的未完待续。
Cerebras 的核心产品叫 Wafer-Scale Engine(WSE),它没有像 Nvidia、AMD、Google TPU 那样把一颗 Die 切下来封装成芯片,而是把一整片 12 吋晶圆做成一颗芯片。
这在工程实现上挑战很大。

普通芯片受限于光刻机的 Reticle 大小(每次曝光最大版图面积约 858mm²),切出来的 die 面积是有限的,不能比 Reticle 更大。Reticle 之间有一条专门用来切割的线叫 Scribe line,上面默认没有有效电路。Cerebras 与 TSMC 一起做了 Cross-reticle stitching,让金属连线可以跨过 Scribe line,把多个 Reticle 大小的版图拼成一整片 Wafer-Scale 晶圆级的计算系统。单颗 WSE-3 上有约 90 万颗核心和 44GB 片上 SRAM。
业内一直对 Cerebras 的 Wafer-Scale 存在着质疑,在硬件上主要围绕工程实现和良率展开的。
WSE 涉及的版图设计、片上互联、缺陷绕行、PVT 一致性、散热、供电、封装,每一项都是工程上的硬骨头。客观地说,Cerebras 把这些骨头啃下来了,这本身就是一项很强的工程成果,确实是实现了工程意义上的突破。
在良率上,Cerebras 对外宣称做到了 100%。可如果仔细研究其 S1 文件和公开的信息和资料,它实际上只是改变了良率本身的计算方式。
换句话说,他重新定义了芯片良率。
传统芯片的良率算的是一颗 die 是否如预期完整可用,只要落上一个致命缺陷,整颗芯片就会被报废或降级出售。Cerebras 把良率的定义换了一种计算方式:整片晶圆能否通过冗余核心和片上网络绕过缺陷,最终凑出一个逻辑上完整的计算系统。根据 S-1 文件的描述:这是从 memory 行业借来的思路,DRAM/SRAM 实际上就是靠冗余 Row/column 把良率做到接近 100%,Cerebras 也把这套做法搬到逻辑芯片上。

这倒不能说他完全是在偷换良率的概念,真要实现如此大面积上的系统可用性也很不容易。靠着片内互连和结构上的取巧,Cerebras 实现了某种工程上的突破和产品层面的平衡。但说到底,它和传统 GPU 良率口径不在同一个度量衡里,并不能直接横向比较。
从 Cerebras 的视角来看,除了 WSE, 还有一个显著特点,也是其多次强调的创新突破之处,那就是片内带宽极高。根据其公开说法,片上 NoC 带宽达到 Pbps 量级。
但如果仔细研究就会发现,只要数据需要离开晶圆,还是要面对其他 AI 芯片面临的问题,片(卡)间带宽的瓶颈同样会出现,片内和片间互连的量级差大约在 100 倍以上。
我们分析,正是这种 " 内快外慢 " 的结构决定了 WSE 的 " 转向 " 故事。
Cerebras 最早瞄准的是训练。站在今天回看,这件事没做成。

训练市场有三个绕不过去的约束。硬件:大模型训练拼的不是单芯片算力,是外部内存与外部互连,权重、梯度、optimizer state、activation 都要在大规模系统里高效搬运,而 WSE 恰恰在片外 I/O 互连上是短板。
软件:Nvidia 的真正壁垒在 GPU+CUDA+NCCL+NVLink+NVSwitch+HBM+ 服务器 + 云厂商部署 + 开发者生态共同搭出的整套系统,这种壁垒不是单点技术领先就能撼动。训练场景的客户基本上主要为全球大模型的头部玩家了,他们当下最大的战略任务是 " 留在牌桌上、争最快迭代 ",没有人会用如此巨大的机会成本去赌一颗非 Nvidia 的训练芯片。
Cerebras 当年为训练配了 SwarmX 和 MemoryX,这其实一定程度上是借用了 AMD 的既有成果,挂在 WSE 外面解决内存与扩展。但实际部署中这套配套基本没被认真用起来,根源还是那句话,WSE 的技术亮点在片内,AI 系统的真实瓶颈在系统,在模型如此规模化的今天,片间与片外的瓶颈,直接限制了系统的效能,进一步限制了应用场景。
它还押过一个更大的赌注:非结构化权重稀疏,理论上 8:1 任意稀疏可以拿到接近 8 倍的有效算力,在产品定义与设计上,要在 AI 计算的泛化意义上来实现,那是非常难的。但在实际上,大模型最后没走这条路,业界主流是 MoE、低精度量化(FP8/FP4/MXFP)、attention 优化。Cerebras 在硬件上尝试去做一个很难的特性,但这个特性没有成为模型演进的主路线。
这也再次证明,AI 芯片产品经理要对 AI 模型有很深刻的理解和预判能力,不然的话,产品定义和设计,就会面临极高的风险。
推理和训练的系统约束完全不同,推理和场景有关,其计算模式可以解耦。Cerebras 把推理任务做成一条流水线:把整个大模型按层切成几段,分别放到一片或多片 WSE 上;推理时数据像在工厂传送带上一样,从第一片 WSE 流到下一片,每片只负责自己那一段计算。

这套办法之所以能在 WSE 上跑通,关键在于一个细节,串接片与片之间需要传输的,只是这一步算出来的中间结果(activation),数据量相对较小;而真正吃内存的部分(模型权重、用户对话过程中累积的 KV cache)则被锁在每一片 WSE 内部,不需要反复跨片搬运。
这恰好绕开了 WSE 最大的短板,片外 I/O 不够快(只是相对于片间来说,和其他 AI 芯片其实也在同一个数量级上)。对追求高 token 吞吐的推理场景,这条路线的工程意义是真实的:Cerebras Inference 在公开 benchmark 上跑出了比主流 GPU 方案快约 15 倍的 token 速度。
但正如之前分析 Groq 的文章中所述,推理的强泛化能力几乎就难度极高了。
模型大小、结构、KV cache 需求差异极大,再加上 SRAM 容量、片外 I/O 这些底层约束,WSE 只能在" 特定模型 + 特定适配 "的场景下打出最强表现。它的最优市场策略,就应该是找到最通用的模型、量最大的 HyperScaler 客户,针对其计算系统进行软硬件的适配与优化,这也就意味着,从经济意义上来看,它必须挑客户。
到这里,技术故事讲完了。一颗工程上有真本事的大芯片,从训练市场退了出来,在推理市场找到了一条高吞吐路径,但这条路径必须靠少数大客户和深度适配才能走通。
在当今西方世界上,OpenAI 和 Anthropic 是顶级模型大平台。
因此,接下来在 S-1 文件中,我们就看到了这个技术故事的另外一面。
2026 年 1 月,Cerebras 公开宣布与 OpenAI 的多年合同,金额 " 超过 200 亿美元 ",部署 750MW 高速 AI 推理算力,双方共同设计未来模型与硬件。这是 Cerebras IPO 路演中很重的一句话。

在 S-1 文件中,这句话却成为了一组互相咬合的合同条款,需要拼起来才能看到全貌。
第一笔:$10 亿 " 工作资本贷款 "。MRA(Master Relationship Agreement)签署后,OpenAI 借给 Cerebras $10 亿 secured promissory note,年利率 6%,到期日不晚于 2032/12。但这笔钱的账户由 OpenAI 控制,Cerebras 不能自由支配;如果 MRA 因为非 OpenAI 重大违约的原因终止,OpenAI 可以一键冻结这笔钱并要求立即全额偿还。还款方式特别,Cerebras 可以用现金还,也可以用算力、硬件或其他服务抵销贷款本金和利息。
第二笔:33,445,026 股 OpenAI Warrant。同一份 MRA 签订之时,Cerebras 向 OpenAI 发行了一份认股权证:标的 33,445,026 股 Class N 普通股,行权价 $0.00001 / 股,几乎等于白送。S-1 披露的授予日公允价值是 $82.02 / 股,对应总价值约 $27.4 亿。Vesting 分三档:第一档 4,459,337 股,触发条件是 $10 亿贷款到账,已于 2026 年 1 月归属;第二档 5,574,171 股,触发条件是 Cerebras 上市后市值首次突破 $400 亿、或 OpenAI 完成特定付款里程碑;第三档 23,411,518 股,按交付节奏分批归属,且完整归属的前提是 OpenAI 行使全部 1.25GW Additional Capacity 选项、累计采购量达到 2GW。
第三笔:Co-design 义务 + 排他条款。MRA 还包含一定排他性安排,限制 Cerebras 向 OpenAI 的部分特定竞争对手提供某些产品和服务。这意味着,Cerebras 在获得 OpenAI 大单的同时,也在一定程度上让渡了部分潜在客户空间。
把这三件事放在一起看,OpenAI 与 Cerebras 之间走的是一个完整的资金闭环:
OpenAI 借出 $10 亿, Cerebras 用这笔钱采购 Wafer、扩产能、租数据中心;然后 Cerebras 把建成的算力卖回给 OpenAI;OpenAI 不需要付现金,用应付货款抵销贷款本金。限期一年走完,OpenAI 的现金没真正出去,Cerebras 的现金也没真正留下,剩下的只有 OpenAI 拿到 750MW 算力使用权 + 33,445,026 股 Cerebras N 普通股的认股权证(OpenAI 同时签了 Registration Rights Agreement,行权后可要求 Cerebras 把股票登记上市流通)。
这是一笔以 " 算力期权 + 股权认购权 " 打包的交易,被会计准则切成三张表,但商业实质是同一笔生意。
作者声明:该图片由 AI 生成

S-1 在 Note 4 给出了会计处理依据:客户 Warrant 按授予日公允价值,作为合同交易价格的扣减项(contra-revenue),随商品 / 服务交付按比例冲减收入。截至 2025/12/31,Cerebras 资产负债表上记入 $152.4M 的 Customer Warrant Asset ——但这部分几乎全部对应 G42 那笔 1,857,516 股 Warrant(同样是阿联酋系客户,是不是似曾相识?可以参考上一篇有关 Nvidia 收购 Groq 的文章),并且 OpenAI Warrant 在 2025 年财报里没有任何影响。
也就是说,Cerebras 2025 年报告口径里的所有收入与毛利率,都还没有扣过 OpenAI 这笔账。
按 S-1 在 Note 13 的 probable 判断:第一档(已 vest)+ 第二档(probable)+ 第三档之 Committed 750MW 的部分(probable),合计约 1900 万股,对应公允价值约 $15.4 亿,这部分将从 2026 年 Q1 起按 OpenAI 收入比例陆续冲减 Cerebras 的报告口径收入。
Cerebras 自己在 MD&A 里写:"When we begin to recognize contra-revenue amounts from the warrants in the first quarter of 2026, we expect quarterly revenue growth rates will decline from recent trends."(当我们从 2026 年第一季度开始确认 Warrant 对应的冲减收入时,预计季度收入增长率将较此前趋势放缓。)
全部 OpenAI Warrant 按授予日公允价值约 27.4 亿美元计算,其中约 15.4 亿美元对应已归属及被公司判断为 probable 的部分,将自 2026 年一季度起随 OpenAI 收入确认节奏冲减收入;剩余约 12 亿美元则主要取决于 OpenAI 是否行使额外容量选择权及后续交付进度。
这在其披露的另一个大客户 Amazon 的合作上也有类似的操作。
AWS 与 Cerebras 在 2026 年 3 月签订的 binding term sheet 也包含一份 2,696,678 股、行权价 $100 的 warrant,按 7 年时间 + 采购量 vest。但 OpenAI Warrant 在数量级、行权价折扣、与合同金额的比例上都更激进,它已经不再是客户激励,而是把客户做成了准股东。
这种模式也并不是 Cerebras 这种将要上市公司所独有。
今年 2 月 24 日,AMD 与 Meta 达成了一项为期五年、总规模超千亿美元的战略合作,根据协议,Meta 将在未来五年内部署 6GW 算力规模的 AMD GPU 集群。作为对价,AMD 向 Meta 授予最多 1.6 亿股、约占总股本 10% 的业绩型认股权证,行权价仅为每股 0.01 美元的象征性水平。
同样的认股权证,同样的味道。
把视线从合同移到财务报表,S-1 文件中披露的 2025 年关键数据:
作者声明:该图片由 AI 生成

GAAP 净利润 +$237.8M,这看上去 Cerebras 已经实现盈利。但仔细研究 S-1 文件给出的完整解释会发现,其中包含了一笔一次性 +$363.3M 的一次性会计重估。剔除这笔会计重估和股权激励,Non-GAAP 净亏损 $75.7M,同比扩大约 $54M。2024 年 +$452M 的经营现金流主要靠客户预付款(G42、MBZUAI 提前付款 $640M),2025 年因为预付款消化反转成了 -$10M。
$237.8M 的盈利,其实是一个会计幻觉,实际上 Cerebras 仍在加速亏损。
再看毛利率,从 2024 年的 42.3% 降到 2025 年的 39.0%,其在 MD&A 里提到云业务占比上升,与数据中心成本相关的项目也稀释了毛利,与此同时,未来还将出现客户认股权证冲减收入。换句话说,这 39% 的毛利率,毛的有点毛骨悚然:上市后,OpenAI 和 AWS 的认股权证所带来的的影响一旦从 2026 年 Q1 开始确认,毛利率算起来就更低了。
更需要被研究的是客户结构。
正如前面技术分析中所述,所谓在推理领域找到的机会,是要先决条件的!
作者声明:该图片由 AI 生成

S-1 中附注的 Note 5 里明确写到:G42 和 MBZUAI 在 ASC 850 下被认定为相互的关联方。也就是说,Cerebras 在 2024 和 2025 两年里,几乎全部收入都来自一组在会计上可以视为 " 同一客户阵营 " 的阿布扎比实体。应收账款来看集中度更夸张—— 2024 年末 G42 占 91% 的应收账款,2025 年末 MBZUAI 占 77.9%。
从整个客户组合来看:2025 年 86% 的收入来自一个相互关联的阿联酋客户组合,剩余约 14% 是其他长尾客户,OpenAI 在 2025 年财报里还没有真正开始确认收入。Cerebras 当下的产品需求被锁在一个非常窄的客户面里,而向前看,IPO 之后的收入故事高度依赖 OpenAI ——而 OpenAI 这个故事,又必须用 Warrant 当作配套条件才成立。
这就是一家在上市前投资份额被疯抢的明星 AI 芯片公司的真实技术、产品、客户、营收和利润状况!
Wafer-Scale Engine 算是过去十年最有辨识度的 AI 芯片项目,后期重新定位的 " 超高速推理 " 作为产品定位也跑出了市场—— OpenAI 的 Codex-Spark 模型在 2026 年 2 月已经跑在了 Cerebras 上对外服务。在 Nvidia 锁死训练侧、推理侧仍存在多种架构机会的当下,在全球资本市场为 AI 产业疯狂砸钱的当下,Cerebras 选择此时上市,也是煞费苦心。
但如果在二级市场真金地白银投票,还是要在这些故事之外,仔细研究几个非常具体的问题。
问号一:剔除股权对价后的真实毛利率是多少? 2025 年的 39% 是没有扣 OpenAI Warrant 一分钱。Probable 部分约 $15.4 亿即将从 2026 年 Q1 起按比例冲减收入;如果 IPO 后股价进一步抬升,未来新增 vesting tranche 的公允价值会更高、对收入的拖累会更深。
问号二:$200 亿 OpenAI 订单到底锁定了多少?MRA 同时把 "OpenAI 单方按 SLA 砍单的权利、Working Capital Loan 抽贷的权利、Additional Capacity 是否行使的选择权 " 全部交给了 OpenAI。Cerebras 履约不达标,订单可被部分或全部终止;Additional Capacity 不行使,Warrant 第三档 B 那 14,632,199 股作废、合同金额也大幅缩水。这份合同的下限,远低于 "$200 亿 " 这个数字给人的直觉。
问号三:客户结构能不能从 " 主权 AI 项目承包商 " 切换为 "AI 推理基础设施公司 "?2024 – 2025 两年 86% – 85% 的收入来自互为关联方的 G42 + MBZUAI 组合,收入集中度太高。这种集中度在传统工业品业务里可以被解释为 " 早期单点突破 ",但对一家标榜为世界顶级 AI 芯片公司来说,它意味着估值锚是不稳定的。OpenAI 的引入能否在 2026 – 2027 年真正稀释这种集中度,要看后续的实际收入分布——而不是合同金额和市场叙事。
问号四:WSE-4 能不能补齐架构层面的短板?当前 WSE-3 有三个工程缺口:缺乏 FP8 / MXFP / FP4 等低精度浮点支持、片外和片间互连的带宽极度不带等远不够支撑大模型 KV Cache、以及其核心粒度太小给编译器和数据映射带来高复杂度。Cerebras 自己也承认推理经济性高度依赖片上 SRAM。如果 WSE-4 不完成数量级别的改善,超高速推理的故事就不那么完备。产品层面客观地说,在芯片硬件既定的情况下,软件无法进行数量级别地优化系统能力,毛利率的改善必须靠硬件架构层面实打实地获取!
问号五:这套 " 认股权证(Warrant)换订单 " 的模式,二级市场愿不愿意买单?Meta 接受过 AMD 的 Warrant,AWS 也拿了 Cerebras 的 Warrant,OpenAI 拿了 Cerebras 更激进的 Warrant,国内已上市和正在 IPO 的几家 AI 芯片公司也在用各自版本的客户股权激励换订单。
这个模式正在变成 AI 芯片公司上市的必备模式。
这种模式它能不能每次都跑成功,且一直可以跑下去,我们需要拭目以待。这次 Cerebras 的 IPO,会是这个模式在国际资本二级市场上进行的压力测试。


登录后才可以发布评论哦
打开小程序可以发布评论哦