量子位 前天
Cursor发布首个编程大模型!代码生成250tokens/秒,强化学习+MoE架构
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

Cursor 的首个编码模型,刚刚发布了!

最新进展,Cursor 2.0正式发布,并且首次搭载了「内部」大模型。

没错,不是 GPT、不是 Claude,如今模型栏多了个新名字——Composer

实力相当炸裂:

据官方说法,Composer 仅需 30 秒就能完成复杂任务,比同行快 400%

基于模型升级,Cursor 2.0 带来了不少新玩意儿——

原生浏览器工具:模型可以自己动手测试代码、调错、迭代,直到结果完全正确。

语音生成代码:不用敲键盘,张嘴就行,直接把思路变成代码。

全新界面逻辑:从「以文件为中心」切换为「以 Agent 为中心」,多个 Agent 可以同时运行、互不干扰。

让多个 Agent 同时尝试同一问题并择优采用,能显著提升最终结果。

太多了太多了,根本看不完。

400% 效率飞跃

当然,其他的都是小菜,最炸裂的依然是——Cursor 居然有了自己的基座模型

要知道,以前的 Cursor 虽然火,但本质上还只是套壳 GPT 或 Claude,再厉害也不是 Cursor 的功劳。

而这次不一样,Composer 正式登场,Cursor 终于能挺直腰板了。

难怪这回官网介绍语气都硬气了不少。(doge)

Cursor 表示,这款模型是专为低延迟编码打造的,可以在 30 秒内完成大多数交互任务。

即便面对体量庞大、结构复杂的代码库,也能保持高水准的推理与理解能力。

除了酷炫的 Demo,当然还要用 Benchmark 秀秀肌肉。

Composer 的性能全部通过内部测试套件 「Cursor Bench」 测得——这是一个根据真实开发者使用场景打造的评估系统。

该 Benchmark 不仅看代码是否正确,还评估模型是否能遵守抽象层次、风格规范和工程实践。

结果显示:Composer 能以每秒 250 个 tokens 的速度生成代码。

这速度比当前最快的推理模型(GPT-5、Claude Sonnet 4.5)快约两倍,比其其他模型更是快四倍。

速度快了,但脑子依然灵活,Composer 显著提高了推理能力和任务泛化能力,水准可媲美中等前沿模型,

基于强化学习的 MoE 自研模型

这么惊艳的表现,究竟是怎么炼成的?

Cursor 研究科学家 Sasha Rush 透露了答案——关键在于强化学习。

我们用强化学习训练了一个大型 MoE 模型,让它更贴近真实的编程任务,而且速度也非常快。

同时,为了和强化学习打配合,Cursor 把自己在产品上的优势发挥到了极致。

和其他机器学习方法不同,强化学习几乎无法从完整系统里抽象出太多内容。所以我们让 Composer 和 Cursor 一同设计,确保它能在真实规模下顺畅运行。

强化学习最大的特点是:它得在真实环境里「干活」,才能学到真本事。

如果 Composer 只在虚拟数据集里改改代码,它根本不知道这些代码有没有 bug、测试能不能过。

所以,Cursor 干脆让模型直接进「上战场」。在完整的 Cursor 环境 中运行、调用工具、执行命令,通过一次次真实交互,拿到最有效的反馈信号。

具体来说,Composer 的训练不是喂静态数据集,而是基于真实的软件工程任务完成的。

训练时,模型直接在完整代码库里动手,用上整套生产级工具:文件编辑、语义搜索、终端命令……

面对复杂工程问题,它必须自己写、自己测、自己修。

每一轮训练都对应一个具体任务,比如写一段改动、拟一份方案,或者解释某个代码逻辑。

事实证明,强化学习确实让 Composer 的表现上了一个台阶。

它学会了如何聪明地选工具、灵活地做并行处理,不再会一拍脑袋给用户抽张废卡。

随着训练深入,模型甚至出现了涌现行为——能自动运行单元测试、修复代码格式错误,甚至可以自主完成多步代码搜索与调试流程。

而 Cursor 2.0 这次为多 Agent 协作提供的基础架构,正式建立在 Composer 这些底层能力的基础之上。

值得注意的是,这次 Cursor 带来的不只是一个更快的模型,而是一个真正面向实战的 AI 系统。

相比一味去和那些头部基座模型硬刚,Cursor 这次更聪明地发挥了自己在应用端的产品优势——

让 Composer 直接在与用户相同的环境中运行,真正做到贴合开发者的日常工作流程。

Cursor,你真的是自研吗?

话说回来,Composer 的效果确实很惊艳,但 Cursor 似乎在故意回避一个问题——

强化学习没问题,但模型底子你倒是说清楚啊。

Composer 的透明度缺失简直离谱。他们提到用了强化学习,但没交代模型的其他训练过程——

到底是自己预训练的,还是拿现成模型改的?

在他们公开更多细节、或有人能独立复现结果之前,我对这些说法都持保留态度。

Cursor 研究员 Sasha Rush 这些天也一直在 Hacker News 上亲自答疑,但对于「基础模型来源」这个问题,她始终没正面回应。

当被直接问到 「Composer 是不是微调自某个开源模型?」 时,Rush 的回答是:

我们的主要关注点在于强化学习的后训练阶段,我们认为这是使模型成为强大的交互式智能体的最佳途径。

不过可以确定的是,Cursor 过去确实有自己的内部模型。

据悉,Cheetah 是 Composer 的早期原型,团队曾用它来测试生成速度与系统集成效果。

不过嘛,正式版 Composer 到底是基于 Cheetah,还是从开源模型的骨架上改的……

还需要让子弹再飞一会儿~

参考链接:

[ 1 ] https://news.ycombinator.com/item?id=45748725

[ 2 ] https://simonwillison.net/2025/Oct/29/cursor-composer/

[ 3 ] https://venturebeat.com/ai/vibe-coding-platform-cursor-releases-first-in-house-llm-composer-promising

[ 4 ] https://cursor.com/cn/blog/2-0

[ 5 ] https://x.com/srush_nlp/status/1983572683355725869

[ 6 ] https://x.com/cursor_ai/status/1983567619946147967

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

  年度科技风向标「2025 人工智能年度榜单」评选报名火热进行中!我们正在寻找 AI+ 时代领航者  点击了解详情

❤️‍   企业、产品、人物 3 大维度,共设立了 5 类奖项,欢迎企业报名参与   

一键关注 点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

编程 界面 肌肉
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论