编程智能体时代,顶流 Cursor 举旗发布新的评测基准——
CursorBench,专门评价 Cursor 中不同模型谁更 " 智能体 "(即高效执行复杂任务)。
结果你猜怎么着?曾在 SWE-Bench 上威名赫赫的 Claude Haiku 4.5/Sonnet 4.5 全部歇菜了。
Claude Haiku 4.5 的分数从 73.3 → 29.4;
Claude Sonnet 4.5 的分数从 77.2 → 37.9。
而这,也恰好体现了 CursorBench 和其他编程基准之间的区别:
SWE-Bench 衡量的是程序能否解决问题,CursorBench 衡量的是程序能否高效地解决问题。这种差距正是普通基准测试所无法弥补的——在真实的 token 约束下完成任务。

" 龙虾 " 当道,谁都知道现在评价 AI 要看执行能力,而且还是要高效执行那种。
而 CursorBench 的出现,恰好填补了相关空白。
不过问题来了,CursorBench 具体咋评的?
线上 + 线下混合评
关于咋评的这个问题,Cursor 还专门撰写了一篇博客。

一上来,Cursor 就介绍了一个基本背景——
随着 AI 编程助手越来越像 " 智能体 ",目前很多公开的 benchmark 已经不够用了。
问题呢主要有这么三个:
一是任务类型不真实。
以大家比较熟知的 benchmark 为例,SWE-Bench 主要是修复 GitHub issue 的 bug,任务比较单一。
Terminal-Bench 虽然不再局限于代码仓库,但更偏向各种 " 谜题式任务 ",比如根据给定环境完成一系列挑战,此时 AI 更像是在参加某种竞赛而非进行日常开发。
所以 Cursor 就说了," 我们发现,这些任务与开发者要求智能体完成的编程工作并不契合 "。
现实生活中更常见的是,开发者会要求 AI 修改多个文件、分析生产日志、运行实验……总之比基准更复杂。
二是评分机制不合理。
很多公开基准通常都假设——一个问题只有一个正确答案。
但现实是,一个需求可能有多种实现方式,不同方案的代码风格、架构选择都有可能不同。
这就往往会导致两种情况:要么直接给正确的方案打叉(出现误判)、要么直接为了可评估性而强行消除模糊性(人为施加限制)。
无论是哪一种,基准都无法反映真实情况。
三是公认的数据污染问题。
这一点就不必多说了,一旦基准出现够久,后来的模型很可能就会直接抓取这些基准数据进行训练。
所以,在这种近乎 " 透题 " 的情况下进行评分,其结果到底有多大价值就可想而知了。

而面对这些问题,Cursor 拿出了一套" 线上 + 线下混合评 "的全新方案。
线下就是我们说的 CursorBench,流程也相对简单——
让不同模型都去完成同一批标准任务,然后系统从正确性、代码质量、效率、交互行为等维度进行打分,最终每个模型都能拿到一个离线 benchmark 分数。
采用这种标准化流程的好处显而易见,包括可以相对而言把模型拉到同一起跑线进行比较、可以重复测试、成本也相对可控。
不过有人可能就说了,这和其他基准好像没差啊?
别急,CursorBench 的 " 制胜法宝 " 在这里——选的任务不一样。
其不一样体现在三个维度:
一是任务真。
以前的基准更像是 " 刻意找题 ",找 GitHub issue、找各种谜题;而 CursorBench 的题都来自自家 Cursor 平台。
Cursor 有一个工具叫 Cursor Blame,它可以追踪某一段代码是由哪个 AI 请求生成的。
于是就能拿到这样一对对真实数据——开发者请求 + 某个模型最终提交的代码。
而这些,就构成了 CursorBench 绝佳的 " 出题范本 "。而且 Cursor 补充道:
许多任务来自我们的内部代码库和受控来源,从而降低了模型在训练阶段见过这些任务的风险。我们每隔几个月就会更新一次这套基准,以跟踪开发者使用智能体方式的变化。
二是任务规模大。
如今用 Cursor 的人实在太多了,所以 CursorBench 的任务规模明显更大。
比如在正确性评估中,无论从代码行数还是平均文件数来看,其问题规模从初始版本到当前的 CursorBench-3 大致翻了一倍。Cursor 表示:
虽然代码行数并不是衡量难度的完美指标,但该指标上的增长反映了我们将更具挑战性的任务纳入 CursorBench 的方式,例如处理 monorepo 的多工作区环境、排查生产日志,以及执行长时间运行的实验。

三是任务描述刻意保持 " 模糊 "。
这点也比较好理解。
很多公开基准里的任务描述通常非常详细,但现实中大家和 AI 说话时往往模棱两可。
所以太精准反而与真实相悖。

至此,基于以上特殊设计,CursorBench 成了编程智能体时代真正以 " 真实开发场景 " 为原点设计的基准测试。
当然这还没完,光做题怎么够呢?很多 AI 线下分数高,但用户一上手就发现很拉胯。
对此,Cursor 还搞了一套线上评测——直接看真实用户使用效果。
他们会使用 A/B Test 这种方式,观察一部分用户用模型 A、另一部分用户用模型 B 之后的对比效果。
具体主要看开发者是否接受 AI 生成的代码、是否继续追问、是否撤销修改、任务是否真正完成等可追踪的产品指标。
如此一来,线上和线下就可以形成完美互补,甚至形成良性循环——
线下 CursorBench 先快速筛选模型能力,然后线上验证模型是否真的更好,发现偏差后再去调整 benchmark 或模型。
飞轮这不就起来了(doge)。
所以,结果呢?
那么模型们在新基准 CursorBench 上的表现如何呢?
来看最终 performance(越靠近右上角越好,代表 " 以最低成本实现最高性能 "):

见此图表,网友们一时讨论连连:
啧,没想到 Claude Sonnet 4.5 的 " 性价比 " 有点低啊。

这个 Composer 模型(Cursor 自研编码模型)又是哪里冒出来的。

Anyway,从 Cursor 公布的结果来看,一个很明显的结论是——
CursorBench 在前沿模型之间的区分度明显更高。
这个其实是自然而然的。基准一饱和,模型们往往拉不开差距,大家分都高、都好。
但一遇到新的、难的,实力差距便自然显露了。
尤其在 CursorBench 这种任务规模更大、环境更复杂的基准上,差距无疑将被进一步放大。
只需对比模型在 SWE-Bench 和 CursorBench 上的得分就能看出来了(左边全挤在一起、右边呈阶梯式):

以及 Cursor 还强调了一点——
CursorBench 的排名,与真实用户体验更加一致。
通过前面提到的线上实验,他们发现 CursorBench 的模型排名,和这些线上指标变化基本是同方向的。

接下来,Cursor 还将着手开发下一代评测套件:
虽然 CursorBench-3 的任务比公开基准上的任务持续时间更长,但它们仍然可以在一次会话内完成。我们预计在未来一年里,绝大多数开发工作将转向由在各自计算机上独立运行的长时运行智能体来完成,因此我们也正规划对 CursorBench 作出相应调整。
嗯,瞄准的还是智能体,只不过是运行时间更长的智能体。
参考链接:
[ 1 ] https://x.com/cursor_ai/status/2032148125448610145
[ 2 ] https://cursor.com/cn/blog/cursorbench
[ 3 ] https://www.objectwire.org/technology/cursor
— 欢迎 AI 产品从业者共建 —
「AI 产品知识库」是量子位智库基于长期产品库追踪和用户行为数据推出的飞书知识库,旨在成为 AI 行业从业者、投资者、研究者的核心信息枢纽与决策支持平台。
一键关注 点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦