Cursor 的首个编码模型,刚刚发布了!
最新进展,Cursor 2.0正式发布,并且首次搭载了「内部」大模型。
没错,不是 GPT、不是 Claude,如今模型栏多了个新名字——Composer。
实力相当炸裂:
据官方说法,Composer 仅需 30 秒就能完成复杂任务,比同行快 400%。
基于模型升级,Cursor 2.0 带来了不少新玩意儿——
原生浏览器工具:模型可以自己动手测试代码、调错、迭代,直到结果完全正确。
语音生成代码:不用敲键盘,张嘴就行,直接把思路变成代码。
全新界面逻辑:从「以文件为中心」切换为「以 Agent 为中心」,多个 Agent 可以同时运行、互不干扰。
让多个 Agent 同时尝试同一问题并择优采用,能显著提升最终结果。

太多了太多了,根本看不完。
400% 效率飞跃
当然,其他的都是小菜,最炸裂的依然是——Cursor 居然有了自己的基座模型。
要知道,以前的 Cursor 虽然火,但本质上还只是套壳 GPT 或 Claude,再厉害也不是 Cursor 的功劳。
而这次不一样,Composer 正式登场,Cursor 终于能挺直腰板了。
难怪这回官网介绍语气都硬气了不少。(doge)
Cursor 表示,这款模型是专为低延迟编码打造的,可以在 30 秒内完成大多数交互任务。
即便面对体量庞大、结构复杂的代码库,也能保持高水准的推理与理解能力。
除了酷炫的 Demo,当然还要用 Benchmark 秀秀肌肉。

Composer 的性能全部通过内部测试套件 「Cursor Bench」 测得——这是一个根据真实开发者使用场景打造的评估系统。
该 Benchmark 不仅看代码是否正确,还评估模型是否能遵守抽象层次、风格规范和工程实践。
结果显示:Composer 能以每秒 250 个 tokens 的速度生成代码。
这速度比当前最快的推理模型(GPT-5、Claude Sonnet 4.5)快约两倍,比其其他模型更是快四倍。
速度快了,但脑子依然灵活,Composer 显著提高了推理能力和任务泛化能力,水准可媲美中等前沿模型,
基于强化学习的 MoE 自研模型
这么惊艳的表现,究竟是怎么炼成的?
Cursor 研究科学家 Sasha Rush 透露了答案——关键在于强化学习。
我们用强化学习训练了一个大型 MoE 模型,让它更贴近真实的编程任务,而且速度也非常快。

同时,为了和强化学习打配合,Cursor 把自己在产品上的优势发挥到了极致。
和其他机器学习方法不同,强化学习几乎无法从完整系统里抽象出太多内容。所以我们让 Composer 和 Cursor 一同设计,确保它能在真实规模下顺畅运行。

强化学习最大的特点是:它得在真实环境里「干活」,才能学到真本事。
如果 Composer 只在虚拟数据集里改改代码,它根本不知道这些代码有没有 bug、测试能不能过。
所以,Cursor 干脆让模型直接进「上战场」。在完整的 Cursor 环境 中运行、调用工具、执行命令,通过一次次真实交互,拿到最有效的反馈信号。
具体来说,Composer 的训练不是喂静态数据集,而是基于真实的软件工程任务完成的。
训练时,模型直接在完整代码库里动手,用上整套生产级工具:文件编辑、语义搜索、终端命令……
面对复杂工程问题,它必须自己写、自己测、自己修。
每一轮训练都对应一个具体任务,比如写一段改动、拟一份方案,或者解释某个代码逻辑。
事实证明,强化学习确实让 Composer 的表现上了一个台阶。
它学会了如何聪明地选工具、灵活地做并行处理,不再会一拍脑袋给用户抽张废卡。
随着训练深入,模型甚至出现了涌现行为——能自动运行单元测试、修复代码格式错误,甚至可以自主完成多步代码搜索与调试流程。
而 Cursor 2.0 这次为多 Agent 协作提供的基础架构,正式建立在 Composer 这些底层能力的基础之上。

值得注意的是,这次 Cursor 带来的不只是一个更快的模型,而是一个真正面向实战的 AI 系统。
相比一味去和那些头部基座模型硬刚,Cursor 这次更聪明地发挥了自己在应用端的产品优势——
让 Composer 直接在与用户相同的环境中运行,真正做到贴合开发者的日常工作流程。
Cursor,你真的是自研吗?
话说回来,Composer 的效果确实很惊艳,但 Cursor 似乎在故意回避一个问题——
强化学习没问题,但模型底子你倒是说清楚啊。
Composer 的透明度缺失简直离谱。他们提到用了强化学习,但没交代模型的其他训练过程——
到底是自己预训练的,还是拿现成模型改的?
在他们公开更多细节、或有人能独立复现结果之前,我对这些说法都持保留态度。

Cursor 研究员 Sasha Rush 这些天也一直在 Hacker News 上亲自答疑,但对于「基础模型来源」这个问题,她始终没正面回应。
当被直接问到 「Composer 是不是微调自某个开源模型?」 时,Rush 的回答是:
我们的主要关注点在于强化学习的后训练阶段,我们认为这是使模型成为强大的交互式智能体的最佳途径。
不过可以确定的是,Cursor 过去确实有自己的内部模型。
据悉,Cheetah 是 Composer 的早期原型,团队曾用它来测试生成速度与系统集成效果。
不过嘛,正式版 Composer 到底是基于 Cheetah,还是从开源模型的骨架上改的……
还需要让子弹再飞一会儿~
参考链接:
[ 1 ] https://news.ycombinator.com/item?id=45748725
[ 2 ] https://simonwillison.net/2025/Oct/29/cursor-composer/
[ 3 ] https://venturebeat.com/ai/vibe-coding-platform-cursor-releases-first-in-house-llm-composer-promising
[ 4 ] https://cursor.com/cn/blog/2-0
[ 5 ] https://x.com/srush_nlp/status/1983572683355725869
[ 6 ] https://x.com/cursor_ai/status/1983567619946147967
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
年度科技风向标「2025 人工智能年度榜单」评选报名火热进行中!我们正在寻找 AI+ 时代领航者 点击了解详情
❤️ 企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与
一键关注 点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦