大语言模型智能体的强化学习框架 , 首次实现了通用的多智能体的 " 群体强化 "。
在大语言模型(LLM)智能体的各种任务中,已有大量研究表明在各领域下的多智能体工作流在未经训练的情况下就能相对单智能体有显著提升。
但是现有的 LLM 智能体训练框架都是针对单智能体的,多智能体的 " 群体强化 " 仍是一个亟须解决的问题。
为了解决这一领域的研究痛点,来自 UCSD 和英特尔的研究人员,提出了新的提出通用化多智能体强化学习框架——PettingLLMs。支持任意组合的多个LLM 一起训练。

研究背景
大语言模型驱动的多智能体系统在医疗、编程、科研、具身智能等多个领域均能大幅度提升任务表现。
为训练大模型智能体,Group Relative Policy Optimization ( GRPO ) 已被验证为通用的有效强化学习算法。然而,当前所有针对 LLM 的强化学习训练框架,包括 GRPO 算法本身,都局限于单智能体训练的范畴。多智能体间的协作优化,即 " 群体强化 " 的学习机制,仍然是一个亟待填补的空白。
GRPO 算法的核心机制是,针对同一个输入(prompt),通过多次采样生成一组候选回答。随后,算法在组内对这些回答进行评估(例如,通过一个奖励模型),并计算它们之间的相对优势。
这种优势计算的有效性与公平性依赖于一个关键假设——组内所有用于比较的候选回答,都必须基于一个完全相同的上下文(即 prompt)生成。
然而,将 GRPO 直接应用于多智能体(multi-agent)多轮(multi-turn)环境中存在一个核心困难。
在多智能体场景下,即使是针对同一个初始问题,不同智能体在不同轮次接收到的 prompt 差异显著。
例如(如图所示),一个负责编程的智能体,其在第二轮的 prompt 不仅包含原始问题,还可能融合了第一轮中自己生成的代码以及其他智能体生成的单元测试。

因此,如果在 MA 环境中仍然简单地将同一个初始问题产生的所有(跨轮次、跨智能体的)回答视为一个 "group" 来进行优势计算,这就直接违反了 GRPO 所要求的 " 共同 prompt" 的核心假设。
这导致组内的优势计算基准不统一,使得计算结果不再公平或有效。
所以核心问题就是,如何既保证每个组内有一定批次量的回答,又能保证优势计算的公平。
方法概述
作者提出了一种 greedy-search 的树状采样方法。
每轮次每个 agent 形成一个节点进行 K 个分支,在分支以后选择此时 reward 最高的 agent 进行下一次分支。这样能够让多智能体训练能平衡好探索(exploration)与利用 ( exploitation ) 。
每一个 agent 的奖励函数都考虑自身角色的奖励和全局任务的奖励来保证角色专属能力和合作能力的进化。

对于多智能体的强化学习进化的另一个面临一个核心的策略问题:在何种任务下,让模型进化成不同角色的 " 专属模型 "(specialized models)?又在何种任务下,让所有智能体共享一个 " 通用模型 "(shared model)会更优?
为了实现两种不同的训练模式,作者搭建了如图所示的异步分发训练系统。

系统中的路由模块负责收集多智能体系统在环境中交互产生的轨迹数据。
专属模型模式下,系统可以配置多个独立的模型资源池(如图中的池 i 和池 j)。路由模块会将智能体 i 的数据批次仅发送给池 i 的更新单元,专门更新模型 i;同时将智能体 j 的数据批次发送给池 j 的更新单元,独立更新模型 j。
而在共享模型模式中,相对地,路由模块也可以将所有智能体的轨迹数据合并,并全部发送给同一个模型资源池的更新单元,以集中更新一个共享模型。
通用的多智能体强化学习框架:PettingLLMs
基于该项研究,作者开源了通用的多智能体强化学习框架,使得多智能体强化学习训练开发变得敏捷、简洁、优雅。
在作者现有的系统上搭建环境开发只需要任务特有的 agent 的交互和奖励函数。同时,作者也给环境开发设计建立了详细的环境开发教程。
已有的环境也已经包括了主流的 agent 任务比如数学、code、游戏等。
该框架支持不同模型和 agent 之间的任意映射。也支持每个 agent 适配不同的 lora 的方式。
实验效果
在推箱子这种长规划任务中,通过 AT-GRPO 训练,两个 agent 都得到了强化,任务性能从 14% 提升至 96%。

作者在 Qwen3-1.7B 与 Qwen3-8B 两个规模上开展了大规模实验,覆盖规划(Sokoban、Plan-Path)、代码(LiveCodeBench、APPS、CodeContests)与数学(AIME24/25、OlympiadBench)三大类任务。

实验结果表明:
规划类任务中,Sokoban 从 14% 提升至 96%,Plan-Path 从 47% 提升至 99.5%;
代码生成任务中,LiveCodeBench 提升 +6.1%,APPS+4.2%,CodeContests+7.0%;
数学推理中,AIME 24 提升 +9.0%,AIME 25 提升 +17.9%。

消融实验进一步验证了关键设计——
只在单智能体(SA)里训练,收益有限:把规划 / 工具等子角色各自放在 SA 环境里训练,单看各自指标会从 5.0% 提到 11.0%/14.5%,但放回 MAS 联合作业仅到 16.0%。
互换角色策略会 " 崩盘 ":把已经学成的两个角色策略对调,准确率从 96.0% → 6.0%,说明两位 " 队友 " 学到的是互补但不可替代的能力。
协同越来越顺、回合越来越少:训练过程中两位代理的学习回报同步上升,任务所需平均回合数持续下降——体现出更紧密的对齐与分工协作。

PettingLLMs 通过支持通用的多智能体强化学习算法,让多智能体一起学习一起进化,实现了跨任务、跨规模的通用强化学习算法。
论文:https://huggingface.co/papers/2510.11062
GitHub:https://github.com/pettingllms-ai/PettingLLMs
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
我们正在招聘一名眼疾手快、关注 AI 的学术编辑实习生
感兴趣的小伙伴欢迎关注 了解详情

点亮星标
科技前沿进展每日见


登录后才可以发布评论哦
打开小程序可以发布评论哦