
如果不是长期盯着大模型产业链,很多人未必会第一时间注意到 Anthropic。这家公司由一批从 OpenAI 出走的研究人员创办,长期把 AI 安全、企业部署和可靠交付放在叙事中心;在公众舆论里,它往往没有 OpenAI 那样显眼,但在模型公司、云平台和芯片供应链之间,Anthropic 这几年已经是个越来越重的名字。
也正因为它平时并不总站在聚光灯下,最近这一周围绕它展开的几条消息才更值得连起来看:谷歌和博通宣布扩大合作,为它准备多吉瓦下一代算力;围绕谷歌定制处理器的长期供给安排同步浮出水面;CoreWeave 又签下多年云容量协议;另一边,Anthropic 还在评估自研 AI 芯片。
这些消息单独看只是合作,放在一起看却像一场正在成形的争夺。今天围着 Anthropic 转的,已经不只是几笔云订单,而是谷歌 TPU、AWS Trainium、CoreWeave 的英伟达云,以及潜在自研芯片这几条原本并不完全重合的供给线,开始同时争取进入同一家模型公司的长期体系。谁能拿下 Anthropic,争的不只是当下收入,而是未来几年里一条芯片路线、一种云平台组织方式,能不能真正被头部模型公司写进生产环境。也正因此,Anthropic 不再只是上游的一个客户,而正在变成半导体产业重新安排长期供给的坐标点。
要理解 Anthropic 为什么会突然成为上游争抢的对象,先要看它在商业上已经长成了什么样。Anthropic 在 2026 年 2 月宣布完成 300 亿美元 G 轮融资,投后估值 3800 亿美元,并披露年化收入运行率达到 140 亿美元;到 4 月初,公司又表示,年化收入运行率已经超过 300 亿美元,年花费超过 100 万美元的企业客户已超过 1000 家。 这意味着,Anthropic 的算力需求不再只是训练某一代模型时的一次性高峰,而是与持续增长的企业合同、付费订阅和长期产品使用绑定在一起。
因此,谷歌、AWS 与 CoreWeave 围绕 Anthropic 展开的,就不只是销售竞争,而更像路线竞争。谷歌在 4 月 6 日宣布,将与博通一起为 Anthropic 提供多吉瓦下一代 TPU 容量;更早的 2025 年 10 月,Anthropic 还计划把谷歌云技术的使用规模扩展到最高 100 万颗 TPU,并预计在 2026 年带来超过 1 吉瓦新容量。 与此同时,谷歌和博通之间围绕定制 AI 芯片的长期安排也被进一步披露,其中还包含面向 Anthropic 的约 3.5 吉瓦 AI 算力。 这件事的产业含义,不只是谷歌争取到一家大客户,而是 TPU 这种原本更深地服务于谷歌内部体系的架构,开始借 Anthropic 这样的外部头部用户进一步向平台化供给迈进。
AWS 的算盘也类似。Anthropic 一直把亚马逊视为主要云服务商和训练合作伙伴,并继续与 AWS 在 Project Rainier 上合作。 Project Rainier 已部署接近 50 万颗 Trainium2 芯片,到 2025 年底,Claude 将运行在超过 100 万颗 Trainium2 芯片上。 对 AWS 而言,Trainium 要真正站稳,就不能只停留在成本叙事或内部验证层面,而必须进入前沿模型公司的主生产环境;Anthropic 是否把关键负载真正压上去,本身就是对这条芯片路线最直接的现实测试。
CoreWeave 则代表了另一条更贴近英伟达生态的外部弹性路线。它与 Anthropic 签下的多年协议,相关算力将优先服务 Claude 系列模型负载。 再叠加 Anthropic 对自研 AI 芯片的早期评估,以及它与 Fluidstack 投资 500 亿美元建设美国 AI 基础设施、计划在得州和纽约建设面向自身工作负载的数据中心,就能看到一幅更完整的图景:Anthropic 一方面在多个既有平台之间组织容量,另一方面也在把算力问题继续往更底层的数据中心和芯片定义层推进。 对上游供应链来说,这类客户的意义是,它不会轻易被锁进单一平台,而会不断迫使不同架构、不同云平台和不同数据中心组织方式同时参与竞争。
如果 Anthropic 只是一个训练模型的实验室,那么它对半导体产业的重要性,大概还停留在 " 谁能为它提供更多 GPU"。但真正改变问题性质的,是它的产品和客户结构,正在把上游需求从短期采购变成长期、稳定而且更复杂的基础设施需求。
Anthropic 明确表示,Claude 不依赖广告变现,主要收入来自企业合同和付费订阅;它希望 Claude 更多服务工作、编程与复杂任务,而不是依靠停留时长换流量收入。这种商业模式决定了,Anthropic 的算力消耗会越来越多地来自企业工作流,而不是来自偶发性的消费爆款。到 2026 年 2 月,Anthropic 还披露,财富 10 强中已有 8 家是 Claude 客户,年花费超过 10 万美元的客户数量同比增长近 7 倍。 对半导体产业来说,这意味着它面对的不是一批短周期试用者,而是一批会把 AI 接入内部系统、并愿意持续付费的大客户。
最典型的抓手是 Claude Code。Anthropic 在 2025 年 8 月把 Claude Code 与 Team、Enterprise 方案更深地整合,同时推出 Compliance API、组织级支出控制、使用分析、策略设置和文件访问限制等企业能力。 到 2026 年 2 月,公司披露 Claude Code 的年化收入运行率已经超过 25 亿美元,而且企业使用已占收入一半以上。 这意味着,Claude Code 已不只是一个 " 会写代码 " 的模型功能,而开始进入预算、权限、审计与组织管理都要被认真对待的企业软件层。对上游而言,这类业务最重要的变化,是需求会更持续,也更依赖稳定交付,而不是只在模型发布时突然暴涨。
Anthropic 的 Managed Agents 又把这一变化往前推进了一层。这项托管服务面向长周期 agent 任务,核心问题已经不只是模型推理本身,而是会话持久化、工具调用、沙箱隔离、凭证安全和故障恢复。 再结合 Claude Code 逐步从本地交互式使用走向后台长时代理工作的趋势,任务时长正在从几分钟延伸到更长区间,并要求更强的远程环境、隔离工作区和多代理并行支持。 这背后的产业含义很直接:头部模型公司的需求,正在把芯片竞争从 " 谁能给训练卡、推理卡 ",推进到 " 谁能给长期运行时、隔离环境和可恢复系统 "。
企业分发网络则让这种需求进一步固定下来。Anthropic 在 2026 年 3 月推出 Claude Partner Network,承诺投入 1 亿美元支持咨询公司和服务商推动企业落地,并强调 Claude 是当时唯一同时上架 AWS、谷歌云和微软三大云平台的前沿模型。 2025 年 12 月,Anthropic 与 Snowflake 宣布扩大合作,签下 2 亿美元多年协议,Claude 将通过多云平台覆盖 12600 多家全球客户;数千家 Snowflake 客户每月已通过 Snowflake Cortex AI 处理数万亿个 Claude tokens。2026 年 1 月,安联又与 Anthropic 达成全球合作,Claude 将进入其内部 AI 平台,Claude Code 已覆盖全球数千名开发者,并参与保险行业高度合规的自动化流程。把这些信息放在一起看,Anthropic 对上游的价值不只是 " 量大 ",更是 " 形状清晰 ":它的模型正进入数据平台、开发流程和高监管工作流,因而上游必须为多年容量、稳定兑现率和复杂部署环境提前做准备。
如果把镜头稍微拉远,就会发现 Anthropic 的重要性还不在于它像不像另一个 OpenAI,而在于它提供了另一种组织上游供给的样本。OpenAI 当前的动作,更像是在直接组织基础设施本身。" 星际之门 " 计划由软银、OpenAI 和甲骨文共同推进,OpenAI 预计将在约五年内向甲骨文购买 3000 亿美元计算能力。 随着新一轮扩容推进,OpenAI 正在开发的 Stargate 容量已超过 5 吉瓦,可运行超过 200 万个芯片,并继续把美国本土数据中心建设推向更大规模。
芯片层面,OpenAI 也在向更底层前移。它计划在 2026 年推出与博通合作的首款 AI 芯片,优先内部使用;同时还在并用 AMD 与英伟达芯片,以分散供应并压低成本。 另一项调整则显示,OpenAI 并不是简单地无限扩容,而是在资本节奏、站点安排和硬件路线之间持续重排,把原定新增的部分容量转移到其他园区兑现。 也就是说,OpenAI 更像是主动站到数据中心、芯片路线和资本开支的中心位置。
Anthropic 的路径则不同。它没有像 OpenAI 那样亲自统筹一整块基础设施版图,而是通过企业收入、多平台部署、产品深入工作流和长期容量合同,让谷歌 TPU、AWSTrainium、CoreWeave 的 GPU 云以及潜在自研芯片围绕自己展开竞争。这两条路表面上不同,传递给算力厂商的信号却是一致的:决定下一阶段胜负的,已经不只是单颗芯片性能,也不只是某一家云厂商手里有多少卡,而是谁更能把芯片、机架、云平台、数据中心、企业产品和长期客户合同组织成一个稳定兑现的系统。
如果只把 Anthropic 看成 OpenAI 之外的另一家明星模型公司,就会低估这轮变化。它真正重要的地方在于,它已经把自己变成了一种稀缺客户:既能持续消耗最先进算力,又能把模型嵌进企业软件、开发流程和高合规行业,还保留在多条基础设施路线之间重新分配负载的能力。对谷歌、AWS、CoreWeave,乃至潜在的自研芯片项目来说,Anthropic 不只是收入来源,更是验证路线、锁定产能、争取未来标准的关键样本。
把它和 OpenAI 放在一起看,轮廓会更清楚。OpenAI 在往上游深处走,直接组织数据中心、资本开支和芯片路线;Anthropic 则从下游企业使用反向推回上游,把自己变成多条供给路线都必须争取的长期客户。
在算力供应的下一阶段,最值钱的或将不只是更先进的芯片,也不是某家云手里多出的几万张卡,而是谁能把芯片、云、数据中心和真实客户需求稳定地绑成一套长期供给系统。围着 Anthropic 展开的争夺,只是这场重排最早、也最清楚的一次预演。


登录后才可以发布评论哦
打开小程序可以发布评论哦