打开网易新闻 查看精彩图片

随着多模态大语言模型(MLLM)的飞速发展,能够像人类一样通过视觉输入操作图形用户界面(GUI)的智能体(Agent)正逐渐成为现实。然而,在通往通用计算机控制的道路上,如何让模型精准地将自然语言指令对应到屏幕上的具体元素 —— 即 GUI Grounding 任务,依然是一大难题。

现有的方法,特别是基于验证奖励的强化学习(RLVR),虽然在提升 “指得准”(空间对齐)方面表现出色,却往往在 “指得对”(语义对齐)上遭遇瓶颈。模型常常陷入 “自信陷阱”,在复杂的语义场景下无法通过有效探索找到正确的功能图标。

针对这一痛点,来自浙江大学、香港理工大学及 InfiX.ai 的研究团队提出了一种全新的自适应探索策略优化框架(AEPO),并推出了InfiGUI-G1系列模型。该模型通过多答案生成与自适应奖励机制,彻底打破了传统 RLVR 的探索瓶颈。仅凭 3B 和 7B 的参数量,InfiGUI-G1 便在多个高难度 GUI 基准测试中刷新了 SOTA,部分指标甚至大幅超越了闭源模型。

本文将深入介绍这项被 AAAI 2026 接收为 Oral 的工作,解读其如何通过 “学会探索” 来实现更精准的 GUI 语义理解。

打开网易新闻 查看精彩图片

  • 论文标题:InfiGUI-G1: Advancing GUI Grounding with Adaptive Exploration Policy Optimization
  • 论文链接:https://arxiv.org/abs/2508.05731
  • 代码链接:https://github.com/InfiXAI/InfiGUI-G1

从 “空间对齐” 到 “语义对齐”:被忽视的探索瓶颈

GUI Grounding 任务的核心是将自然语言指令(如 “打开相机”)映射到屏幕上的特定元素坐标。研究团队指出,这一任务可以解构为两个正交的维度:

1. 空间对齐(Spatial Alignment):能否精确地定位到元素(即 “指得准”)。

2. 语义对齐(Semantic Alignment):能否识别出功能正确的元素(即 “指得对”)。

现有的 RLVR 方法(如 Naive RLVR)虽然能通过优化坐标生成来提升定位精度,但在面对语义模糊或复杂的指令时却显得力不从心。

例如,当指令是 “使用相机搜索物体” 时,屏幕上可能同时存在普通的 “相机应用” 和具有视觉搜索功能的 “Google Lens”。缺乏深度语义理解的模型往往会自信地死磕 “相机应用” 图标。由于传统 RL 依赖当前策略采样,模型会不断重复这个高置信度的错误,陷入“自信陷阱”(Confidence Trap),从而无法发现真正正确的 “Google Lens” 图标,导致无法获得修正语义误解所需的学习信号。

打开网易新闻 查看精彩图片

GUI Grounding 的主要失败模式: (a) 空间对齐失败,(b) 语义对齐失败

InfiGUI-G1:自适应探索策略优化(AEPO)

为了解决这一探索效率低下的问题,InfiGUI-G1 引入了AEPO(Adaptive Exploration Policy Optimization)框架。与传统的单次回答生成不同,AEPO 旨在通过更广泛且高效的探索来捕捉低概率但正确的选项。

AEPO 框架由三个协同工作的核心组件构成:

1.多答案生成机制(Multi-Answer Generation)传统的 RL 方法通常只采样一个动作,一旦模型 “固执己见” 地选错,梯度的学习信号就会消失。AEPO 强制模型在一次前向传递中生成 N 个候选坐标点。这一机制迫使模型跳出单一的高置信度预测,去探索策略分布长尾中的可能性,从而大幅增加了发现正确答案(如上述例子中的 Google Lens)的概率。

2.自适应探索奖励(Adaptive Exploration Reward, AER)仅仅生成多个答案是不够的,如何评价这些答案的质量至关重要。研究团队基于效率第一性原理(效率 = 效用 / 成本)设计了 AER 函数。

  • 动态激励:如果模型在靠前的排名(Rank k)就找到了正确答案,给予高额奖励;如果失败,则给予较小的惩罚以鼓励继续探索。
  • 这种非线性的奖励设计在失败时鼓励模型 “广撒网”,在成功时引导模型追求 “快准狠”,实现了探索与利用的动态平衡。

3.共线惩罚(Collinear Penalty)为了防止模型通过生成近似直线的点来 “作弊”(简单的线性扫描策略),研究引入了共线惩罚。如果生成的多个候选点在几何上近似共线,将被视为低质量探索并受到严厉惩罚。这强制模型在语义空间而非单纯的几何空间中进行多样化探索。

打开网易新闻 查看精彩图片

AEPO 与 Naive 强化学习基准方法的对比

实验结果:小参数量实现性能越级

研究团队在 MMBench-GUI、ScreenSpot-Pro、UI-Vision 等五个极具挑战性的基准上对 InfiGUI-G1(3B 和 7B 版本)进行了全面评估。

1.综合性能全面领先:在 MMBench-GUI 基准测试中,InfiGUI-G1-7B 在 Windows、iOS、Android 等多个平台上的表现均刷新了开源模型的最佳成绩。值得注意的是,InfiGUI-G1-7B 在部分指标上甚至优于参数量大得多的 Qwen2.5-VL-72B 和闭源模型 GPT-4o。

2.攻克高难度语义理解任务ScreenSpot-Pro 基准专门区分了文本类(Text)和图标类(Icon)任务。结果显示,InfiGUI-G1 在更依赖语义理解的 “图标” 任务上提升尤为明显。这直接证明了 AEPO 策略有效解决了语义对齐的瓶颈,让模型真正 “看懂” 了抽象图标背后的功能含义,而不仅仅是进行简单的文本匹配。

3.让 “不可学习” 变得 “可学习”为了验证 AEPO 是否真的解决了探索难题,研究团队将样本按难度分为简单、中等和困难。实验发现,InfiGUI-G1 在 “困难” 样本(即基座模型几乎无法答对的样本)上的提升最为巨大,相对 Naive RLVR 基线提升了超过60%。这意味着 AEPO 成功挖掘出了那些以往因缺乏探索而被模型 “放弃” 的长尾知识。

打开网易新闻 查看精彩图片

ScreenSpot-Pro 基准测试的性能对比

总结与展望

InfiGUI-G1 的成功表明,GUI 智能体的性能瓶颈不仅仅在于视觉识别能力,更在于如何通过有效的强化学习策略来解决语义对齐问题。通过引入自适应探索机制,InfiGUI-G1 以极高的数据效率和较小的模型规模,实现了超越大模型的 GUI Grounding 能力。这项工作为未来开发更通用、更智能的 GUI 交互助手提供了坚实的技术基础。

目前,InfiGUI-G1 的代码、模型权重及相关资源已在 GitHub 开源,欢迎社区进一步研究与使用。