如何让 AI 更聪明地操作手机、电脑界面?
浙江大学与通义实验室 Mobile-Agent 团队在 UI-R1 的基础上,推出全新研究成果——UI-S1,提出了一种名为半在线强化学习(Semi-online Reinforcement Learning)的创新训练范式。
该工作融合了离线训练的稳定性与在线学习的长程优化能力,在不依赖真实环境交互的前提下,显著提升了模型在动态多轮任务中的表现。
也就是说,这种方法用的还是离线学习的现成操作数据,但会模拟在线学习的过程。
下面来看看是怎么做到的。
用 " 离线 " 数据,模拟 " 在线 " 过程核心问题:传统方法的局限性
现有的 GUI Agent 训练主要依赖两类强化学习范式:
离线强化学习(Offline RL)
利用预先收集的专家轨迹进行训练,具有高稳定性与低部署成本,但其本质是 " 行为克隆 + 单步模仿 ",缺乏对轨迹级奖励信号的学习能力,难以应对需要长期规划的任务。在以下任务中:基于离线学习的模型表现出早停现象,面对长程任务缺乏有效的规划。
在线强化学习(Online RL)
通过与真实环境持续交互获取反馈,能够捕捉到任务完成与否的全局奖励信号,适用于多步决策优化,但面临奖励稀疏、试错成本高昂以及训练不稳定等问题。
因此,如何在无需频繁真实交互的前提下,赋予模型类似在线学习的上下文连贯性和长程推理能力,成为突破瓶颈的关键。
解决方案:三大核心技术构建半在线学习框架
为解决上述矛盾,研究团队提出了三项关键技术,共同构成 UI-S1 的核心架构:
半在线机制:在离线数据中模拟在线交互
离线学习的轨迹是固定的,只能将专家轨迹的动作(* 表示)作为历史:
而在线学习的轨迹是可以动态变化的,将模型自己的原始输出(π 表示)作为历史:
UI-S1 首次提出半在线强化学习范式,其核心思想是在固定离线轨迹的基础上,在每次 rollout 过程中保留模型自身的原始输出(包括动作选择与思维链),而非仅使用专家动作作为历史输入。
这一设计使得模型能够在训练中体验 " 自我行为带来的上下文变化 ",从而增强策略的一致性和多轮连贯性。
换言之,即使没有真实环境反馈,模型也能 " 感知 " 自己过去的行为,并据此调整后续决策,实现了对在线学习过程的有效模拟。
补丁机制(Patching Module):自适应修复采样偏差
由于模型在 rollout 中可能偏离专家路径,导致后续状态无法匹配原始轨迹,研究者引入了可配置的补丁机制,以恢复被中断的操作流。具体包含三种策略:
Thought-Free Patch:仅修正错误动作,保持原思考过程不变
Off-Policy Thought Patch:调用更强外部模型重写错误思维链
On-Policy Thought Patch:引导模型自身生成正确的推理路径
此外,提高补丁次数上限可显著提升模型访问完整轨迹的能力,进而增强对后期步骤的学习效果。
分析显示,更高的补丁阈值有助于维持策略熵,防止过早收敛,促进探索多样性。
长程奖励建模:从步骤级到轨迹级的优势估计
为了弥补传统离线 RL 无法捕获未来收益的缺陷,UI-S1 引入了带折扣因子的未来奖励传播机制。对于每个中间步骤,系统不仅计算其即时规则奖励
还结合未来步骤的潜在价值(按衰减因子 γ 加权)形成综合奖励:
有了这个步骤级别奖励,研究者们用其估计同一个步骤组内的步骤级别优势,
最后一步的优势被当作轨迹级别优势,用于评估轨迹是否完成:
研究者将两个级别的优势加权后(
),采用动态采样的方式优化策略模型:
评测革新:SOP ——更贴近真实表现的动态评估指标
针对传统静态评测(如 AC-High)无法反映多轮容错能力的问题,研究团队提出了新的评测——SOP(Semi-online Performance)。
该协议保留模型每一轮的真实输出,一旦出现错误即终止任务,全面模拟真实使用场景下的连续交互过程。结果表明,SOP 与真实在线性能高度对齐,且支持更高任务多样性和更快评估速度,填补了现有评测体系在动态性与实用性之间的空白。
实验结果:全面超越基线,逼近顶尖闭源模型
在多个主流 GUI 自动化基准上的测试中,UI-S1-7B 展现出卓越性能:
实验结果
特别是在 AndroidWorld 任务中,UI-S1-7B 取得了34.0%的任务成功率,接近 GPT-4o(34.5%)与 UI-TARS-7B(33.0%),显著优于纯 SFT 或离线 RL 方法。
值得注意的是,部分基线方法在动态评测中甚至不如基础模型,反映出其在多轮泛化方面的根本缺陷。
同时,在单轮任务(如 GUI Odyssey)上,UI-S1-7B 仍保持 +7.1% 的增益,说明半在线训练并未牺牲局部精度,实现了 " 长短兼顾 " 的双重优化。
在常规的 GUI 单轮评测上,UI-S1-7B 相比于 base 模型也有一定程度的提升(比如 GUI Odyssey +7.1),证明了半在线方法并没有牺牲单轮预测能力。
深入分析:机制有效性与可扩展性验证补丁机制显著提升数据利用率
作为 UI-S1 框架的核心组件之一,补丁模块(Patch Module)在维持训练稳定性与提升策略泛化能力方面发挥了不可替代的作用。
其设计初衷在于解决半在线强化学习中一个根本性矛盾:模型在 rollout 过程中不可避免地会偏离原始专家轨迹,导致后续状态无法对齐真实数据,从而中断整个轨迹的学习进程。
为缓解这一问题,研究团队引入了可调节的补丁机制,允许系统在检测到操作偏差时,以有限次数对历史动作或思维链进行修正。通过设置超参数阈值控制每条轨迹最多可修补的次数,研究人员系统评估了不同配置下的性能变化。
实验结果表明,提高补丁阈值显著提升了模型在 SOP 和 AndroidWorld 两个动态评测基准上的表现。
在具体修补策略的选择上,研究对比了三种典型方案,揭示了性能与效率之间的深层权衡:
On-Policy Thought Patch
由目标策略模型自身重新生成正确的推理过程,在语义风格和推理节奏上与原输出高度一致,因此能提供最自然的上下文衔接,带来最优性能。然而,该方法需额外执行完整的前向推理,计算开销较大,不利于大规模训练。
Thought-Free Patch
仅修正错误的动作标签,保留原有的思维链不变。尽管未修复潜在的逻辑缺陷,但由于 GUI 动作空间相对结构化且可通过规则校验,该方式在实践中表现出接近最优的性能,同时几乎不引入额外计算成本,具备极高的工程实用性。
Off-Policy Thought Patch
借助外部更强的大模型(如 GPT-4)重写错误的思考过程。虽然理论上可提供更高质量的推理指导,但因生成风格、术语使用与目标模型存在分布偏移,反而可能导致上下文断裂或误导训练方向,实际效果不如预期。
更进一步分析发现,较大的补丁阈值有助于在训练过程中维持较高的策略熵(policy entropy),即模型在动作选择上的不确定性水平。
较高的熵值反映了更丰富的探索行为,避免策略过早收敛于少数高频路径。
这说明补丁机制不仅是误差纠正工具,更是促进策略多样性和防止模式坍缩的重要手段。
数据缩放规律揭示高效学习潜力
研究表明,UI-S1 的性能增长符合指数型数据规模律。
随着补丁阈值从 0 增至无穷,指数系数 k 从− 1.13 提升至− 0.73,表明单位数据带来的边际收益明显改善。
这意味着即使在有限数据条件下,该方法也能更充分挖掘非完美轨迹中的监督信号,具备良好的小样本适应能力。
消融实验确认关键组件贡献
消融实验进一步验证了多个核心组件的技术贡献。
首先,在未来奖励建模方面,折扣因子 γ 的设置对多轮任务表现具有决定性影响:当 γ =0(完全忽略未来奖励)时,模型性能最低;而在 γ =0.5 时达到峰值,说明适度纳入长程优化信号可显著提升策略的全局一致性与任务完成率,凸显了半在线范式在捕获跨步依赖关系上的优势。
其次,在训练范式组合上,联合使用监督微调(SFT)与半在线强化学习(Semi-online RL)的效果明显优于任一单独方法——在 AndroidWorld 基准上,组合方案取得 34.0% 的任务成功率,分别高出仅用 Semi-online RL(30.4%)和仅用 SFT(21.7%)的配置,且平均任务完成步数更少,表明其具备更强的路径规划与执行效率。
最后,同时引入轨迹级与步骤级优势函数计算,并保留多帧历史观测信息(包括动作、思考链与界面状态),均被证实对最终性能有正向增益,去除任一组件均会导致性能下降,说明这些设计共同支撑了模型在复杂 GUI 交互中的稳健决策能力。
样例分析
研究者们展示了一项复杂的跨应用任务,该任务要求在多个操作步骤中持续保留关键信息:从 Simple Gallery 中查看一张包含交易信息的图片,并在 Markor 应用中创建文件记录该信息。
实验表明,基础模型和离线强化学习(Offline RL)模型在执行过程中出现了思维与动作不一致的问题。
例如,Offline RL 模型在规划完切换至下一应用后便提前终止操作,可能因其过度拟合局部奖励,未能统筹后续任务目标。而经过监督微调(SFT)的模型则在流程中遗失了关键信息,导致执行冗余操作,如尝试创建一个已存在的文件。
相比之下,基于半在线强化学习(Semi-Online RL)框架的 UI-S1 模型在整个 12 步操作序列中保持了稳定的上下文连贯性,成功将交易信息 "2023-03-23, Monitor Stand, $33.22" 准确以 CSV 格式写入文件。
这一表现验证了该方法在学习多轮复杂行为方面的优势,实现了推理过程与动作执行的高度对齐。
研究者认为,该成果体现了半在线范式在提升 GUI 智能体长程规划能力与任务鲁棒性方面的关键作用。
感兴趣的朋友可戳下方点链接获取更多内容~
论文地址:https://arxiv.org/abs/2509.11543
项目代码:https://github.com/X-PLUG/MobileAgent/tree/main/UI-S1
模型地址:https://huggingface.co/mPLUG/UI-S1-7B
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见
登录后才可以发布评论哦
打开小程序可以发布评论哦