量子位 2小时前
英伟达巧用8B模型秒掉GPT-5,开源了
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

英伟达端着一个 8B 小模型对 GPT-5 说:

不好意思,你还得练(bushi)。

何出此言?——英伟达携手香港大学开源的Orchestrator-8B,人类终极考试 HLE 分数更高、花钱更少、跑起来速度还更快。

哦对了,还在 HuggingFace 被狂赞,冲到了热门模型前五。

而它超越 GPT-5 的打法是不当推理者,而是 " 工具主理人 ",协调使用各路工具。

如何吊打 GPT-5?

人在解决问题时会找各种帮手,比如搜索引擎、计算器 ,那这个工作能不能由模型代劳?

Orchestrator 干的就是这事儿。

虽然自己只有 8B 参数,但手下管着一整个工具团队。

既有 GPT-5、Claude Opus 4.1 这样的顶级大模型,也有 Qwen2.5-Math 这样的专业数学工具,还有网页搜索、本地检索、代码解释器这些实用小帮手。

它并不是自己解题,而是判断现在该用哪个工具、控制工具的顺序和使用次数、还能兼顾效果、成本、用户偏好,工作日常如下:

拿到难题先分析:这题需要算数学?那就调用 Qwen2.5-Math;

过程中动态调整:搜完资料发现需要验证?那就先用代码解释器跑一遍;

全程把控用户偏好:用户说要省钱,那 GPT-5 能不用就不用,优先用本地工具。

简单说,大模型是一个人干所有活,而 Orchestrator-8B 是带着团队干专业活。

能让小模型精准协调这么多工具,全靠英伟达的ToolOrchestra训练大法。

核心有两个,一个是有奖有罚的强化学习,一个是量身定制的ToolScale 数据集

训练时给 Orchestrator 立了三条奖惩规则:

效果奖:让 GPT-5 判对错,解题对了加分,错了扣分;

效率奖:用的钱少、耗时短加分,反之扣分;

偏好奖:听用户的话加分,比如用户要隐私保护,多用本地搜索就加分。

研究者建了个包含金融、医疗、电商、旅游等 10 个领域的训练素材库,里面全是 " 怎么用工具解题 " 的案例,让模型充分接触各类场景。

Orchestrator-8B 也在权威测试中交出了令人满意的答卷。

HLE 测试里它拿下 37.1% 的得分,超过 GPT-5 的 35.1%,成本却仅为后者的 1/2.5;

FRAMES、τ² -Bench 测试中也拿下 SOTA 成绩,降低了开支,运行速度更是快了一倍多。

小模型的逆袭

实际上,在 AI 领域工具编排和小模型驱动复合系统的赛道上,英伟达 ToolOrchestra 训练的 Orchestrator-8B 并非孤例。

最早探索让小模型学会调用工具的代表性研究,是谷歌 DeepMind 在 2023 年提出的Toolformer,通过监督学习 + 自生成数据,让 12B 参数的模型学会调用计算器、翻译 API、搜索引擎等基础工具;

但当时,Toolformer 仅聚焦基础工具,并没有把大模型纳入工具库。

MIT 和 CMU 联合团队的 ToolRL,提出以奖励为核心的工具学习框架,训练小模型通过强化学习动态选择工具,主要是解决 " 传统工具学习过度依赖人工标注数据 " 的问题,通过自动生成工具交互轨迹训练模型。

虽然也是奖励机制,但 ToolRL 的奖励函数更侧重于任务的正确性和工具调用效率,并没有明确纳入用户偏好,且工具库以基础工具和专业 API 为主。

今年,香港大学和微软提出的 Optimal Tool Calls(OCT),也是专门针对 " 工具调用成本优化 " 的小模型训练方法。

越来越多的团队在做相关研究,也有越来越多的人关注该领域的进展。

就拿 Orchestrator-8B 来说,为什么它能获得 HuggingFace 高赞?

最明显的原因就是实用。大模型虽强,但太贵、太慢,而 Orchestrator-8B 参数量小,还能实现「强 + 省钱」,直接解决了落地时的成本难题。

用低成本实现高智能,这么一看,AI 的未来还真不一定是超级大模型单打独斗了。

作者简介

Orchestrator-8B 这篇论文的一作是香港大学博士苏弘锦,主要研究方向是数据科学和自然语言处理,现在英伟达实习。

共一是英伟达研究院的研究科学家Shizhe Diao,主要进行大型基础模型的预训练、高效调优和对齐方面的研究,曾与字节跳动人工智能实验室的李航博士合作。

论文地址:https://arxiv.org/abs/2511.21689

项目主页:https://research.nvidia.com/labs/lpr/ToolOrchestra/

数据集:https://huggingface.co/datasets/nvidia/ToolScale

HuggingFace 地址:https://huggingface.co/nvidia/Nemotron-Orchestrator-8B

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

 锁定 12 月 10 日周三,AI 圈一年一度绝对不容错过的盛宴马上就要来了——MEET2026 智能未来大。 了解详情

    重磅 GenAI 对话 + 前沿 Agent 圆桌,深挖年度最热议题

    近三十位来自学术界、产业界与前沿创业一线的重量级嘉宾

    「人工智能年度榜单」与「年度 AI 趋势报告」正式发布

,一起来 AI 认知跨年 ❤️‍

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

英伟达 开源 数学 考试 效果
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论