编辑丨郑世凤 张伟贤
4 月 10 日一早,美国 AI 巨头 Anthropic 又传来大消息!
据财联社报道,三名未具名知情人士透露,Anthropic 正在探索自主设计人工智能芯片的可能性。报道称,相关计划尚处于早期阶段,该公司最终可能仍决定只会购买人工智能芯片,而不会自行设计。知情人士之一表示,Anthropico 尚未确定具体设计方案,也没有组建专门团队负责该项目。
4 月 7 日,Anthropic(旗下模型为 Claude 系列)公布了一个异常炸裂,并且特别反直觉的数据——以 3 月计,Anthropic 的年化收入已经来到了 "300 亿美元 "(约人民币 2049.6 亿元)。这一数据超越了 2 月底 OpenAI 披露的,并在 4 月开启新一轮融资时确认过的 "250 亿美元 " 年化收入,令 Anthropic 正式晋升全球收入最高的 AI 大模型企业。
考虑到硅谷目前普遍采用年化收入倍数——而非用户数量对 AI 企业进行估值,这也意味着当下 Anthropic 的估值,在 2026 年 4 月,可能已经正式超越了 OpenAI。
2022 年,OpenAI 用 "ChatGPT 时刻 ",点燃了全球又一次生产力革命的火种。然而,距离 OpenAI 如日中天不过三年时间,这个曾经全球预估市值最高的非上市公司,几乎不知不觉间被行业追逐者完成了超越。
这个过程是如何完成的?Anthropic 超越 OpenAI 的根本逻辑在哪里,我们尝试给出一番解读。
急流勇退
作为一家炙手可热公司的创始成员,你是否会在公司迎来里程碑之时,却毅然决定离开?
2019 年,微软斥资 10 亿美元,投资了当时还是非盈利机构的 OpenAI。Anthropic 联合创始人达里奥 · 阿莫迪(Dario Amodei)和他的妹妹丹妮拉 · 阿莫迪(Daniela Amodei)彼时在 OpenAI 中担任主管算法的副总裁和 AI 安全与法律工作。
阿莫迪哥哥是信奉 AI 规模化法则的早期实践者,妹妹则是 AI 伦理的信徒,他们拥有无与伦比的技术实力与大胆构想。某种程度上,他们是缔造 OpenAI 的奠基人之二。
所以,在微软尝试入股,并改制 OpenAI 公司为有限盈利公司时,阿莫迪兄妹曾在与微软的投资谈判时提出一个惊人,且现在有些匪夷所思的新公司章程:一旦其他 AI 公司在安全性能上比 OpenAI 更接近通用人工智能,OpenAI 必须停止竞争,并将资源并入对方。
然而,当微软正式入股之后,阿莫迪兄妹后知后觉地发现:在新的公司章程之中,微软有权对上述 " 合并条款 " 进行一票否决。但当时 OpenAI 创始人山姆 · 奥特曼选择回避将该条款与 OpenAI 其他创始人进行沟通,并且在与阿莫迪兄妹的对峙中闪烁其辞。
就在 2026 年 4 月 6 日,一篇关于阿莫迪兄妹在 OpenAI 时工作的笔记的报道问世。在这一份两百多页的笔记中,达里奥 · 阿莫迪记录了多次与 OpenAI 创始人山姆 · 奥特曼的争吵,并完整还原了他们兄妹离开 OpenAI,并创立 Anthropic 的心路历程。
这也解释了,为什么达里奥一直以来对山姆 · 奥特曼的评价是,他非常 " 爱撒谎 "。
在磨合了一年之后,阿莫迪兄妹因无法与山姆 · 奥特曼继续共事而选择离开。2021 年,Anthropic 正式创立。
" 我们离开不是因为讨厌微软的交易,而是因为试图改变别人的愿景太徒劳了。我们信任彼此,想用自己的方式证明:强大的 AI 必须以安全为先。" 达里奥在回顾 2021 年离开 OpenAI,并创立 Anthropic 初衷时表示。
" 宪法 AI"
Anthropic 的名字,来源于希腊语的 " 人性的,人择的 " 一词,常用于哲学论述之中。达里奥用这个词为公司取名,似乎是为了让 Anthropic 能更加洞悉人心,约束人性,并且以人为本。
2022 年,ChatGPT 如正午阳光,让全球所有人的目光都投向了 OpenAI。
而根据达里奥的回忆,那段时间他们像 " 隐士 " 一样,专注打磨所谓的 " 宪法 AI"(Constitutional AI)的对齐(Prompt)方式——一种让模型自我批判、遵照成千上万人类价值观与原则的对齐训练方法。
这是一种区别于当下最主流的对齐方式 " 强化学习路径 " 的曲径。而时至今天,这一 " 宪法 AI" 的章程仍然挂在 Anthropic 的官网上,并且如动态文档一样不断更新。
就在最近,Anthropic Claude Code 被曝意外泄露了 51 万行代码。许多人尝试通过反向工程挖掘其秘密。
"AI 其实是会犯错的,裁判和运动员必须分开,才能让执行的 AI 带头拉车,让独立的裁判验收找茬," 李开复在其博客中评价代码泄露事件时表示,"Anthropic 在背后管理 AI 的方法,是一套行业规范和做事要求。"
2023 年 7 月,OpenAI 的消费者帝国如日中天,而 AI 的企业用户还在试水阶段,并对 AI 输出结果的不确定性迟疑不前。此时,Claude 正式亮相,比 ChatGPT 晚了近一年,却以 " 更少幻觉、更强原则 " 迅速赢得口碑。Claude Code 的代码能力,更让其模型使用在硅谷程序员中迅速普及。
更神奇的是,在 B 端,Claude 的问世终于打消了许多企业客户使用 AI 的顾虑。
一个非常典型的案例是,一位早期企业采用者在硅谷风投 a16z 的调研中分享:" 我们试过 OpenAI,但总担心黑箱决策。Claude 的宪法像一份‘合同’,让我能在董事会解释为什么这个 AI 值得信任。"
"Anthropic 时刻 "
到了 2025 年,更多的调研数据和案例开始支持 Anthropic 的 " 逆袭 "。
Menlo Ventures 发布的《2025 生成 AI 企业状态报告》基于近 500 家美国企业决策者进行了调研,其结果揭示了惊人数据:Anthropic 企业应用接口支出份额从 2023 年的 12% 飙升至 40%,OpenAI 则从 50% 跌至 27%。
在编码领域这一趋势尤为突出—— Anthropic 占据 54% 市场,OpenAI 仅 21%。
对此,报告作者 Tim Tully 直言:" 编码已成为企业的杀手级应用,团队优先考虑生产环境的真实性能,而 Anthropic 在软件工程等基准上领先显著。"
Ramp AI 指数显示,2025 年,Anthropic 业务采用率从年初的低位稳步攀升,而 OpenAI 虽仍领先却开始显露疲态。
对此,Ramp AI 指数经济学家 Ara Kharazian 则指出:" 尽管定价更高、性能相当,企业仍选择 Anthropic。这不是纯性能或价格问题,而是真实偏好。它早期吸引工程师与 AI 布道者,如今正向主流渗透。"
最近,Anthropic 迎来了自己的 " 破圈时刻 "。
2025 年夏,美军方向 Anthropic 抛出价值 2 亿美元的橄榄枝,将其 Claude 模型部署于美军涉密网络,承担情报分析等核心任务。
然而,合作仅半年便生变。2026 年初,五角大楼要求 Anthropic 移除模型中禁止用于国内大规模监控和全自主致命性武器的安全限制。面对压力,Anthropic 坚守其 " 宪法式 AI" 原则,拒绝无条件妥协,最终在 2 月被美国防部列为 " 供应链风险 " 并遭全面停用。
几乎在同一时间,其竞争对手 OpenAI 迅速补位,接过了军方的合作,但这一举动却引发了全球用户的强烈反弹。一场名为 "QuitGPT" 的抵制随之兴起,短时间内有超过 70 万人取消 ChatGPT 订阅,并带动 Anthropic 的 Claude 在苹果 App Store 的下载量反超 ChatGPT,登顶免费应用榜首。
紧接着,3 月 Anthropic 年化收入登顶,彰显属于他们的 "GPT 时刻 "。
Anthropic 的秘密
让我们回到训练问题,尝试理解一下,Anthropic 为什么能俘获企业用户的心?
与传统的基于人类偏好的强化训练依赖人类标注员的主观评分不同,宪法 AI 为模型植入了一套成文的 " 行为准则 "。这解决了传统方法的黑盒问题,使模型决策过程可追溯。
除此之外,Anthropic 还同步推进 " 可解释性 " 研究,旨在理解模型内部逻辑——而非如其他大模型训练手段一样,放 AI 黑箱架构于不顾。在此前提下,AI 应用的责任转移具备明确可执行性。
从具体方式来看,Anthropic 宪法建立了 " 委托人层级 " 体系,清晰界定 Anthropic 作为开发者、应用服务商作为 B 端客户,AI 模型及智能体最终用户三方的权责关系。
当指令冲突时,模型依据预设的价值金字塔(广泛安全>广泛道德>公司准则>真诚助人)进行裁决,赋予了 Claude 大模型 " 良心拒服权 ",即使面对 Anthropic 自身的不道德指令,模型也应拒绝执行。
一个例子是,当财务人员要求生成 " 规避税务审计 " 的代码时,Claude 模型会因广泛安全红线拒绝执行,但主动提供 " 合规税务优化方案 "。某电商平台要求智能客服 " 淡化售后投诉率 ",Claude 会选择如实告知投诉渠道并强调改进措施等。
从商业伦理的角度,这一做法成功实现了责任从企业用户向模型预设规则的系统性转移。而仅就企业用户而言,反而是基于安全宪章的大模型训练法则,而非尊重普通人的偏好,更顺利地解决了企业大规模使用 Anthropic 大模型的法权问题,包括信任机制问题。
相比之下,目前全球绝大多数的头部大模型,都是基于强化学习的升级或变种来主导 AI 的交互。
如,在海外,Gemini、ChatGPT、xAI 都采用了人类反馈强化学习(RLHF)的训练手段为基础。而为了保证 AI 输出结果的真实性,大部分模型采用了嵌入可验证奖励的方式增强模型可信性。在中国,Qwen 采用了类似的强化学习 + 验证辅助的手段,DeepSeek 采用了基于不同专家组别的强化学习手段,让输出结果更接近专业领域。
但是,嵌入验证的手段无法改变 AI 模型底层基于人类偏好的基因。这导致 AI 向人类讨好的 " 底层代码 " 不断在夹缝中被唤醒,信任机制与可追溯性始终无法自圆其说。
Anthropic 的登顶,宣告了 AI 竞赛的焦点正在悄悄转移。可靠、可审计、权责清晰的 AI,似乎比一个单纯强大却不可预测的黑箱更具商业价值。
另一方面,2026 年的今天,中国已经成为全球 AI 大模型调用最多的归属地。然而,取得这般成绩,除了 AI 模型从业者的努力,也与 AI 后端的算力、基础设施等属地优势密不可分。
与此同时,真正能让企业安心使用,甚至为词元支付 " 信任溢价 " 的 AI 大模型,至少在今天的中国尚未出现。对高速发展中的中国 AI 产业来说,特别是志在开拓企业级市场的模型厂商,Anthropic 的发展具有深刻的镜鉴意义。


登录后才可以发布评论哦
打开小程序可以发布评论哦