想知道硅谷的程序员怎么使用 AI 编程,被 2000 家公司使用的 AI 代码审查智能体 Greptile 基于每月用 AI 审核的的十亿行代码,发布了 AI 编程年度报告,揭示了使用 AI 编程后带来的生产率提升,但对此程序员们却无法感同身受。
这份报告最让人震撼的一点,是指出了在 AI 编程的帮助下,工程师的代码生产量飞涨。
每位开发人员,每月提交的代码行数从 4450 增长到 7839,增长幅度达到 76%,对于 6-15 人的中型开发团队,每位开发者提交的代码量更是接近翻倍(提升 89%),这意味着 AI 编程工具正成为一种效率倍增器。
更值得注意的是,程序员单次提交代码时,每文件中变更的代码行数的中位数上升 20%(从 18 变为 22 行),意味着代码迭代不仅「更快」,且「变化更多」,这可能反映了 AI 编程工具能够修改的代码及应对的需求正变的复杂。
不过对于报告提到的效率提升,ycombinator 论坛上对该报告的讨论,却大多是怀疑的声音。有人说需要花大量时间修复 AI 生成的代码中的问题。
这些细微差别从未被这类指标所捕捉。更多的人讨论提交的代码数量增加,是不是等同于程序员真实的工作效率提升。
菜鸟程序员完成一个功能需要几十行代码,而资深程序员则只需要几行就能实现。此外,由于引入了 AI 编程,代码被删除和重写的频率如何?这可能不容易统计,但这却很能反映 AI 编程带来的工作效率提升。
另一个更对于代码提交数量增加与工作效率提升的观点是,假设员工之间具备同等的专业能力,那么生产力就取决于代码行数的产出。但事实上,有的任务很难,但不需要太多行代码,只有资深程序员才能完成;而有些任务很简单,却需要很多行代码。只看代码提交量,是将所有任务都看成是中等难度的任务。
此外,不同程序员提交的代码质量不同,这一点在该报告中也没有体现。从这个角度去看,每一行代码都应该被视为一种负担,而不是资产。开发团队需要领域专家来判断到底需要多少行代码存在。
就像你可能会通过每小时搬运的物品数量来衡量仓库员工的生产力。但如果有人只是把东西随意扔到仓库里,或者搬运本不需要移动的东西,他们就会最大化这个指标。
AI 辅助下每个程序员能生成更多的代码了,但这些代码真的是完成对应任务所必须的吗?这不是业务方应对考虑的问题,仅仅衡量提交的代码数,可能会鼓励不必要的重复劳动。
从这个角度来看,或许「编辑行数」是更合适的评估程序员工作效率的指标。这样一来,通过重构来减少代码库规模的方式仍然可以被视为有生产力。每删除一行代码得 1 分,每添加一行代码也得 1 分。
OpenAI 依旧领先,但差距在变小
效率跃升的背后,是支撑性技术栈的激烈重构。报告以不同大模型提供商的 SDK 下载量为考察变量,发现在 AI 记忆模块中,mem0 以 59% 市占率一骑绝尘;而对比向量数据库「六强混战」(Weaviate 25% 领先,Chroma/Pinecone/Qdrant 等紧咬)。

LLMOps 层,LiteLLM 增长 4 倍至 4100 万下载,LangSmith 借 LangChain 生态捆绑上位。这印证一个趋势,即模型调度、监控、降级已从「可选项」变为「基建标配」。
当编程调用的智能体数量越来越多,运维复杂度指数上升,LLMOps 正在承接当年 K8s 之于微服务的角色。

对于模型间的军备竞赛,该报告考察模型提供商从 2022 年 1 月到 2025 年 11 月的 SDK 下载量,主要玩家是 OpenAI、Anthropic 和 Google GenAI。OpenAI 以一条陡峭上升的绿色曲线主导市场。其下载量从 2022 年初的几乎为零,一路飙升至 2025 年 11 月的 1.3 亿次,确立了绝对的市场领导者地位。
Anthropic(红色折线)的增长轨迹堪称「火箭式」。
虽然起步较晚且基数较小,但自 2023 年下半年开始,其下载量呈指数级爆发,到 2025 年 11 月已达到 4300 万次,实现了自 2023 年 4 月以来 1547 倍的惊人增长,Open AI 和 Anthropic 的比值已从 47:1 缩至 4.2:1 ——开发者正在用脚投票,向更开放、更可控、更可编程的接口迁移。
而黄色曲线代表谷歌,其增长相对平缓,在 2025 年 11 月的下载量约为 1360 万次,与前两者相比存在显著差距。

不同模型的参数决定模型的适配场景
这份报告还揭示了五大主流模型作为编码智能体后端的实测基准(考察指标包括第一个 token 出现需要等待的时间、吞吐量、成本等),见下表。
通过该表,可看出 Claude Sonnet 4.5 与 Opus 4.5 只需要等待不到 2.5 秒,就会返回第一个 token,显著优于 GPT-5 系(>5 秒)。而在交互式编程中,2 秒是「心流」与「分心」的临界阈值。

而对于批量生成场景,GPT-5-Codex 与 GPT-5.1 的吞吐量断崖领先,适合后台 CI/CD 流水线中的大规模代码生成 / 测试用例填充。
Gemini 3 Pro 则在响应速度时显著较慢,需要等 10 多秒才会返回第一个 token,每秒输出的 token 数也太少,不适合交互式编程的使用场景。
该报告的最后部分,还给出了 2025 年基础模型及大模型编程应用领域的关键论文,这些研究预示下一波突破方向,例如 Self-MoA 颠覆传统多模型集成,证明单模型多次采样 + 聚合可超越异构模型混合,这意味着「模型多样性」或让位于「推理路径多样性」,而 Search-R1 用强化学习训练模型「自主决定何时搜索」,将搜索引擎变为可学习的环境动作,而非静态的工具调用。RetroLM 更是在直接在 KV 层面检索,绕过原始文本,改变大模型组织记忆的方式。
无论用了多少 AI 辅助编程,提交代码前仍需人工审查。追踪 AI 编程工具的使用数据,无法包含人工审核的部分,这将难以真实反映产品实际的使用体验和效果。不过如果你能证明 AI 编程工具有助于更快地发布功能,而不是仅仅允许更多的代码行数通过审查,那么你开发的 AI 编程工具将具有更强的可证明价值。
参考资料:


登录后才可以发布评论哦
打开小程序可以发布评论哦