本篇论文已被 ACL 2026 接收,主要作者来自上海交通大学自动化与感知学院 IWIN 中心团队。团队负责人为关新平教授,指导老师为陈彩莲教授和乐心怡教授,合作作者还包括南洋理工大学陶大程教授。其他作者来自腾讯、上海人工智能实验室、香港中文大学等机构。第一作者王骥泽为上海交通大学博士生,研究方向为大模型智能体。

近年来,大语言模型的发展,正在从 “单模型能力提升” 走向 “多模型协作”。这是一个很自然的方向:既然不同模型各有所长,有的擅长数学,有的擅长代码,有的更懂医学,那为什么不让它们协同起来,共同解决更复杂的问题?

Mixture-of-Agents(MoA)正是在这样的背景下提出的。它通过让多个模型并行生成、逐层交互、反复融合,往往能够得到比单一模型更强的结果。问题也很明显:性能提升的同时,成本和延迟也随之迅速上升。

在标准 MoA 中,每一轮通常都要调用多个模型,再基于它们的输出进行筛选和融合。但究竟该让哪些模型参与、哪些模型可以跳过,往往缺乏明确的选择机制。模型越多、层数越深,整体开销就越高,在大规模模型池场景下,系统效率和可扩展性都会面临很大挑战。

也正因如此,研究者开始尝试让 MoA 变稀疏。例如,一些方法如 Sparse MoA 会先让模型池中的所有模型生成回答,再通过额外的评审模型进行打分和筛选,只保留一部分模型进入后续协作。这样虽然减少了后续融合的负担,但本质上仍然绕不开一个问题:为了决定该选谁,系统还是得先让所有模型都推理一遍。

于是,这篇工作的核心问题就变得非常直接:我们真的需要先让所有模型都回答一遍,才能决定该选谁吗?

打开网易新闻 查看精彩图片

  • 论文标题:RouteMoA: Dynamic Routing without Pre-Inference Boosts Efficient Mixture-of-Agents

  • 论文链接:https://arxiv.org/abs/2601.18130

  • 代码链接:https://github.com/Jize-W/RouteMoA

一句话总结:RouteMoA 的核心思想是,通过在推理前进行模型能力预测,避免对所有模型进行无效推理。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

现有方法的问题:

效率瓶颈不在融合,而在全量推理

当前 MoA 系列方法的一个共同假设是:要判断哪个模型更好,必须先看到它的输出。因此,无论是经典 MoA,还是引入 judge 的 Sparse MoA,本质上都绕不开一个步骤:所有模型先推理 -> 再筛选 -> 再融合。

这带来两个问题:

第一,计算成本无法下降。即使最后只用少数模型,前面已经为所有模型付出了推理代价。

第二,难以扩展到大模型池。当模型数量增加时,全量推理会迅速变得不可承受,甚至超出上下文限制。

也就是说,瓶颈并不在 “如何选”,而在 “选之前已经太贵了”。

RouteMoA:

把 “选模型” 前移到推理之前

打开网易新闻 查看精彩图片

RouteMoA 的关键创新,是把模型选择从 “后验判断” 变成 “先验预测 + 轻量修正”。

整个流程可以分为三个步骤:

1. 先验筛选:不推理,也能判断谁更可能做对

RouteMoA 引入了一个轻量级 scorer,只根据用户 query,就预测每个模型的潜在表现。这个过程不需要调用大模型推理,只做一个粗粒度打分,把模型池缩小到一个潜力子集。本质上,这是在做一件过去被忽略的事情:用 query 本身的信息,提前判断模型能力匹配度。

2. 后验修正:用已有输出做低成本评审

初筛不可避免会有误差,因此 RouteMoA 引入了 mixture-of-judges:

  • self-assessment:模型对自己的答案打分

  • cross-assessment:高质量模型评估其他模型

关键在于:这些评估只基于已经生成的输出,不引入额外推理调用。也就是说,系统通过已有信息进行纠错,而不是再算一轮。

3. 综合排序:性能、成本、延迟一起优化

最终,RouteMoA 在模型选择时不仅仅考虑性能,而是同时考虑:

  • 输出质量

  • token 成本

  • 推理延迟

从而在实际系统中实现一个更接近工程最优的决策,而不是单纯追求 accuracy。

实验结果:

少花 90% 的钱,反而更强

在包含 15 个模型的大规模模型池实验中,RouteMoA 的结果非常直观:

  • 成本降低 89.8%

  • 延迟降低 63.6%

  • 同时整体准确率相对 MoA 和 SMoA 有所提升

这说明一件事:减少无效计算,不仅不会伤害性能,反而会让系统更专注于对的模型。

打开网易新闻 查看精彩图片

一个关键洞察:

多模型系统的本质是稀疏的

论文中一个非常重要的观察是:在绝大多数 query 上,真正关键的模型只占少数。只要初始阶段能把这些模型保留下来,后续协作就足以放大正确答案。实验中,scorer 在 Top-3 内命中正确模型的概率接近 98%,这意味着:系统并不需要看所有答案,只需要别漏掉对的模型。

进一步分析:

失败不在选错模型,而在融合阶段

打开网易新闻 查看精彩图片

一个很有意思的发现是,在失败案例中:

  • 超过 50% 的错误来自最终答案融合(aggregation drift)

  • 而真正因为选错模型的比例要低得多

可见,多模型系统的瓶颈正在发生转移:从 “选谁来回答”,转向 “如何整合多个答案”。

总结:多模型时代,调度很重要

RouteMoA 的意义,并不只是一个更高效的 MoA 变体,而是提供了一种新的范式:

  • 不再默认所有模型都要参与

  • 而是先判断谁值得参与

  • 再用协作机制校正和放大正确答案

换句话说,随着多模型协作的兴起,系统层的调度与协同,正变得与模型能力同样重要。