
凌晨四点,韩国开发者 Sigrid Jin(instructkr)被手机震醒。
消息铺天盖地:Claude Code 的底层源码被泄露了,开发者们正在疯狂转发、下载、存档。他的消息列表里全是同一件事。他也在第一时间拿到了那份代码,并上传到 GitHub 仓库。

但未经授权持有、传播一家公司的专有源码,在美国版权法框架下,完全可能构成侵权。他的女朋友也提醒他:你可能要被起诉了。
思考过后,他打开 OpenAI 的 Codex,连夜用 Python 从头重写了一遍,推上了 GitHub。2 小时,突破 50K。单日,超过 110K,成为 GitHub 史上增速最快的项目。

马没跑,马鞍丢了
事情发生在 2026 年 3 月 31 日。
Anthropic 在推送 Claude Code 更新时,打包出了问题。一个本不该公开的文件类型被上传到了 GitHub,这个文件指向内部源码,外人可以直接下载、直接阅读。
正常情况下,Claude Code 的源码是经过混淆处理的,逆向极其困难。但这一次,保护层消失了。
一个名为 Chaofan Shou 的 X 用户最先注意到这件事,截图发出,消息开始指数级扩散。几小时内,开发者们在 GitHub 上创建了超过 8000 份拷贝和衍生版本,每个人都在争分夺秒地把这份代码保存下来。

而要理解这次事件的严重性,需要先搞清楚泄露的是什么。
Claude Code 的底层,是 Anthropic 的 AI 模型,这部分没有泄露。泄露的,是套在模型之上的 harness。
如果说,AI 模型是一匹马,harness 是缰绳和马鞍。模型提供原始能力,harness 决定骑手能否真正驾驭它、指挥它干活。Claude Code 之所以能让开发者用得顺手、效率极高,靠的正是这套精心设计的 harness 体系。
这里面,包含 Anthropic 在工具调用、任务编排、上下文管理、模型行为调校上的全部积累。因此,竞争对手和无数开发者拿到的,是一张无需逆向工程的完整设计图。
后续,Anthropic 的发言人随即回应:此次泄露「没有暴露任何客户数据」,也「没有泄露模型的权重参数」。公司声明将其定性为「打包时的人为失误,不是安全漏洞」,并表示正在推出措施防止重演。
Claude Code 之父 Boris Cherny 也在 X 上简短留言,确认这只是「开发者的操作失误」。
消息发酵后,马斯克也来凑了个热闹,转发网友调侃 Anthropic 现在比 OpenAI 更开放的帖子,并留下一句「太绝了」。

DMCA 出手,先误伤了无辜
面对失控的传播,Anthropic 启动了 DMCA 删除程序。
DMCA,即《数字千年版权法》(Digital Millennium Copyright Act),是美国版权保护的主要武器。版权方向平台发出删除通知,平台需在审核后响应,否则可能连带承担侵权责任。
GitHub 作为平台,必须处理这些请求。
Anthropic 初始提交的 DMCA 请求,覆盖了超过 8000 个 GitHub 账号。随后,自己意识到范围过大,把请求收窄到了 96 个账号。
但伤害已经造成。比如开发者 Theo(YouTube 频道 t3.gg 主理人)被「DMCA」了。他的仓库里,根本没有任何泄露的 Claude Code 源码。唯一的关联,是他几周前编辑过一个 skill 的 PR(Pull Request),仅此而已。

「这不是愚人节玩笑,这是对法律的违反,我会全力抗争,」Theo 在 X 上写道,并点名 GitHub,要求撤销 Anthropic 的删除请求。

几小时后,他的仓库恢复了,但他没有收到任何通知。Theo 最终发了一条跟进推文:「看起来像是真实的失误,他们也迅速处理了。」

DMCA 的滥用问题,在开源圈由来已久。
2020 年,RIAA 向 GitHub 发出 DMCA 通知,指控 youtube-dl 绕过 YouTube 的版权保护机制,GitHub 随即下架了该仓库。事后电子前沿基金会(EFF)介入,证明投诉方误读了技术和法律,仓库最终恢复。
GitHub 随后设立了 100 万美元防御基金,专门帮助开发者应对错误的 DMCA 投诉。这一次,Anthropic 这次的大范围误伤,多少让整个开源社区有种似曾相识的愤怒。
维权的节奏,被 AI 降维打击
尽管开发者 Sigrid Jin 的重写行为本身是有争议的,从法律风险规避的角度看,至少比持有原始代码更安全。
他用的工具叫 oh-my-codex(OmX),@bellman_ych 开发的一个工作流框架,底层跑在 OpenAI Codex 上。原始的 TypeScript 代码库约有 51.2 万行,体量不小。
他开了两个模式同时推进:$team 负责并行代码审查,$ralph 负责持续执行和架构验证,迅速完成了从 TypeScript 到 Python 的整体重写。
并且他号称全程没有复制一行原始代码。
这里有个法律上的基本逻辑:版权只保护代码本身的写法,不保护背后的思路和设计。你把一个系统的架构摸清楚了,换一种语言重新实现出来,就像看完一本菜谱,自己下厨做出来,厨师管不着你。
目前,Rust 版本已经在 dev/rust 分支上动工,API 客户端、运行时、工具执行框架、斜杠命令、插件模型这些模块都在计划里。

Sigrid Jin 的仓库最早发的是直接复制的原始代码,上线瞬间,star 数量几乎垂直拉升,2 小时突破 5 万,创下 GitHub 平台有史以来最快达成该里程碑的纪录。
这个 stars 增长速度有多夸张,拿同期的 OpenClaw 来比就清楚了。
OpenClaw 已经是这个时代增速最快的开源项目之一,一个本地 AI agent 框架,在 2026 年 3 月初积累了超过 30 万 GitHub stars,超过了 React 的 24.3 万和 Linux 的 22 万。
React 跑了 13 年,Linux 跑了 35 年,OpenClaw 用了不到 100 天。而就目前的增速来看,claw-code 比 OpenClaw 还快,而且快得多。
更重要的是,AI 的介入也让今天开发者社区的复制、传播、重写速度,已经快到让版权武器有些跟不上节奏了。DMCA 能删掉 8000 个仓库,但删不掉工程师脑子里已经消化掉的架构思路。

以前,把「理解」变成「可运行的代码」需要相当的时间和人力成本,这个时间差,某种意义上是版权执法的窗口期。现在这个窗口几乎关闭了。
理解一套系统的架构,然后用 AI 辅助重写,几个小时就能完成。法律的节奏,和代码传播的节奏,已经完全不在同一个时间维度上。
Claude Code 源码传播到这个量级,早已超出任何版权手段能覆盖的范围。
对 Anthropic 来说,源码泄露本身已经是一件棘手的事。更棘手的,是两层叠加的麻烦。
第一层,是技术上的暴露。harness 的设计细节、dreaming 怎么压缩记忆、undercover mode 什么时候触发、工具调用怎么编排,这些原本的内部设计,现在摆在所有人面前,供所有人参考、复现、改进。
第二层,是形象上的裂痕。Anthropic 走到今天,最引以为傲的就是「负责任的 AI」这块金字招牌。企业客户敢把数据交给它,投资人愿意给出千亿估值,都建立在这个人设之上。但这次乱挥大棒,不仅暴露了技术底牌,更让这块招牌添上了一道难以抹平的划痕。
今年愚人节,Anthropic 送出了最贵的一份礼物。


登录后才可以发布评论哦
打开小程序可以发布评论哦