品玩12月31日讯,通义实验室多模态交互团队开源其通用GUI智能体基座模型MAI-UI。该模型首次将用户交互、MCP工具调用及端云协同三大能力原生集成于统一架构,旨在解决智能体在真实场景下面临的跨应用操作、模糊语义理解等核心挑战。

MAI-UI具备主动提问澄清模糊指令、优先调用结构化工具跳过冗长UI操作、端云协同保障隐私及抗动态干扰等核心能力。评测显示,其已在ScreenSpot-Pro、AndroidWorld等五大权威基准上全面登顶,性能超越Gemini-3-Pro、UI-Tars-2及Gemini-2.5-Pro等主流模型。

为更真实评估智能体能力,团队同期推出面向真实手机场景的评测基准MobileWorld。该基准包含长任务、跨应用及交互挑战,当前主流模型成功率仅20.9%,相关代码与论文均已开源。

打开网易新闻 查看精彩图片