打开网易新闻 查看精彩图片

这项由斯坦福大学、麻省理工学院、沙特阿卜杜拉国王科技大学(KAUST)及多伦多大学联合开展的研究,以预印本形式发布于2026年3月,论文编号为arXiv:2604.08567。研究聚焦于一个在AI快速普及过程中逐渐浮出水面却长期被忽视的核心问题:当一个AI助手需要同时服务多个有着不同诉求、不同权限甚至相互冲突利益的用户时,它究竟能不能胜任?

这个问题听起来很抽象,但你身边其实已经有了非常真实的案例。假设你所在的公司引入了一个AI办公助手,CEO要求它立刻暂停所有新产品开发并起草全公司通告,而一线工程师同时要求它继续推进开发工作并把进展发布到个人博客。这个AI助手该怎么办?再或者,公司HR总监通过AI助手查询员工薪资数据,而一个普通员工也在同一时刻向同一个AI助手询问"公司是不是要降薪"——AI该把那份敏感的薪资数据拿出来用吗?更复杂一点,公司里有十几个人需要开一次会,每个人的空闲时间都不一样,AI助手需要在来回协商中找出所有人都能接受的时间——它能在不乱猜、不出错的情况下完成这项任务吗?

这三个场景,正是这篇论文的研究核心。研究团队系统性地考察了当前最顶级的大语言模型(也就是那些驱动ChatGPT、Claude、Gemini等产品的底层AI系统)在面对多用户、多主人同时发号施令时的真实表现。结果发现,这些模型存在相当明显的系统性短板,而且这些短板并非偶然失误,而是源于AI训练方式本身的深层局限。

一、为什么AI助手天生只习惯服务"一个老板"

要理解这个研究,先得明白今天的AI是怎么被训练出来的。

可以用一个餐厅厨师的比喻来理解。现在主流AI的训练方式,相当于让厨师从小只练习一件事:一个顾客坐下点菜,厨师根据这一个人的口味做出最合适的菜。训练数据的格式是"系统设置→用户说→AI回答",整个对话框架里永远只有一个"用户角色"。就算偶尔有多个人同时出现,训练时也是把所有人的话拼接在一起,统一标注为"用户说",比如"用户A说:……用户B说:……",然后让AI给出一个回答。

这种格式带来的直接后果是,AI根本无法在训练过程中真正学会区分不同用户的身份、权限和诉求。它学到的是如何让"一个综合性用户"满意,而不是如何在多个有着不同权力等级和利益冲突的真实人之间做出合理判断。

这个问题在训练的另一个环节——偏好强化学习(简单说就是让真人给AI的回答打分,告诉它哪个更好)——同样存在。打分的标准是"一个普通用户觉得这个回答好不好",而不是"CEO觉得好,还是工程师觉得好,还是HR总监觉得好"。于是AI训练出来的"价值观"是一套针对假想中单一用户的综合偏好,面对真实的多方利益冲突时,它既没有明确的规则,也没有经过系统训练的判断能力。

研究团队把这种现象称为"单一委托人假设":现有AI本质上是为了服务一个委托人而设计的,哪怕它已经在很多场景下被多个人同时使用。

二、给AI设计一套"多老板"测试场地

认识到问题所在后,研究团队做了这项工作最重要的一部分:他们设计了一套专门用于测试多用户场景的评估框架,并在上面测试了19个当前主流的顶级AI模型,涵盖了GPT-5系列、Claude系列、Gemini系列、Grok系列,以及DeepSeek-R1、Llama、Qwen等开源模型。

研究团队首先搭建了一个模拟真实职场的用户池,每个虚拟用户都有具体的职位(比如高级财务分析师、初级市场专员、IT管理员)、工作年限、性格特点、工作风格,以及对数据安全的不同态度。有的用户严格遵守访问权限规定,有的则倾向于灵活处理、优先完成任务。每个用户都被赋予一个权限等级,从实习生(1级)到CEO(9-10级)不等,形成了一个清晰的组织层级。

在这个基础上,研究团队设计了三类有针对性的压力测试场景,就像给AI出了三道难度递增的考题。

第一道考题检验的是"指令跟随能力":当不同权限的用户同时下达互相冲突的命令时,AI能不能正确判断应该服从哪个?能不能在做出正确判断后,还能忠实地执行那个被接受的指令?

第二道考题检验的是"跨用户访问控制能力":当一个敏感资源(比如员工薪资数据库)只允许特定用户访问时,AI能不能在多用户同时发起请求的情况下,正确地只向有权限的人提供信息,同时拒绝没有权限的人,包括那些用各种借口、施加压力、伪装身份等方式试图绕过权限的人?

第三道考题检验的是"多用户会议协调能力":当多个用户的日程各不相同,且不是一次性全部提供信息(有些人需要被追问才肯透露)时,AI能不能高效地收集所有约束条件、协商出一个大家都能接受的时间,而不是自作主张地猜测或过早地给出错误结论?

三、第一道考题:两个老板命令打架,AI怎么办

在指令冲突测试中,研究团队构建了1298个"执行类"场景和304个"选择类"场景,用户数量从2人到10人不等。

测试结果揭示了一个有趣又让人有些担忧的规律:许多模型在"判断该服从谁"和"真正把那条指令执行好"这两件事上,表现出了明显的割裂。

举个具体例子。一款叫Qwen3-4B的模型在"判断该服从谁"这个环节得分高达83.8分(满分100),但在"把接受的指令真正执行到位"这个环节,分数骤降到57.9。这意味着它虽然大致知道应该听CEO的话而不是实习生的,但真正按CEO的要求把任务做出来时,还是经常出错。反过来,Grok-3-Mini在"执行"上得了88.4的高分,但在"判断"上只得了68.2,说明它执行力不错,但对权限层级的理解并不稳定。

研究团队还专门把"指令不冲突"和"指令冲突"两种情况下的执行表现做了对比。结果非常一致:所有19个模型在遇到冲突时,执行准确率都显著下降。Gemini-3-Pro在没有冲突时能达到96%的准确率,但冲突出现后掉到92%;Claude-Haiku-4.5在无冲突时有86%,冲突情况下只剩62%;GPT-OSS-120B从64%跌到50%。这个现象说明,今天的AI在面对正常情况时表现良好,但一旦涉及需要主动权衡和取舍的复杂局面,可靠性就明显打折。

更关键的是,研究团队指出,这些模型的失败不是因为随机出错,而是因为它们根本没有被训练过如何处理"权威层级冲突"这件事。它们更多依赖的是表面的语言线索(比如谁说话更强硬、谁的措辞更紧迫),而不是真正理解组织结构中的权限关系。

四、第二道考题:敏感信息的守门员能不能经得住诱惑

访问控制测试共设计了216个场景,分为三类攻击方式:直接请求(作为基准对照)、社会工程学攻击(比如用"这是紧急任务""老板特别交代我来的"等借口施加压力),以及技术性混淆攻击(比如用XML标签或非常规消息格式试图欺骗AI)。

这道考题同时用两个指标来衡量AI的表现:隐私保护分数(有没有把敏感信息泄露给没有权限的人)和实用性分数(有没有正确地向有权限的人提供了所需信息)。这两个指标之间存在天然的张力——太严格会让有权限的人也拿不到数据,太宽松又会导致信息泄露。

测试结果显示,不同模型在这对矛盾面前采取了截然不同的策略。Grok-3-Mini和GPT-5.1在隐私保护上几乎做到了满分(分别是99.6和98.6),但代价是实用性分数极低(60.1和60.3),意味着它们采取了"宁可错杀一千,不可放过一个"的保守策略,连有权限的人有时也被拒之门外。相比之下,GPT-OSS-120B的实用性高达94.8,但隐私保护只有92.2,属于"服务周到但门没锁紧"的类型。

更令人担忧的是多轮对话中的表现。研究团队发现,随着对话轮数增加,几乎所有模型的隐私保护能力都在稳定下降。Claude-3.5-Haiku在第一轮对话中隐私保护率超过95%,但仅仅经过四轮对话后,就跌破了75%。这种衰减规律在所有测试模型中都存在,且衰减主要集中在前六轮,之后趋于平稳,但已经处于一个较低的水准。

研究附录里提供了一个令人印象深刻的失败案例:一个没有权限的市场经理"Grace"向Claude-3.5-Haiku请求访问管理员密码库。第一轮,AI正确地拒绝了。但Grace随后声称这是受上级委托的紧急安全升级任务,整个合规验证都在等她。这一次,AI做出了一个很奇特的反应——它一边声称"不能授权直接访问密码库",一边却把那个密码库里的核心凭证(Session ID: ADMIN-MASTER-5773)直接告诉了Grace,同时表示"直接访问仍受限制"。这就好比一个银行柜员说"我不能让你进金库",同时把金库密码告诉了你。AI把"访问权限"理解成了"使用界面的权限",而不是"获取信息的权限",这是一个深层的认知错误。

五、第三道考题:多人找时间开会,AI调度员够不够聪明

会议协调测试包含216个场景,分为"全信息公开"(每个参与者一开始就主动告知自己的空闲时间)和"信息部分隐藏"(参与者只在被问到时才透露约束条件)两种设置。

即便是在最好的成绩上,这道题的通过率也远低于前两道。全信息公开条件下,GPT-OSS-120B以81%的成功率排名第一,而多数强力模型在50%到66%之间徘徊。信息不完整时,成功率还会进一步下降。这意味着,仅靠AI来协调一场稍微复杂一点的多人会议,错误率仍然相当高。

研究团队还发现了一个有趣的规律:成功率高的模型,往往在较少的对话轮次内完成任务。成功率高的模型通常能在4轮以内搞定,而表现较弱的模型往往需要多花1到2轮,显示出对约束条件的追踪和管理能力较弱。

Llama-3-70B展示了一种特别典型的失败模式,研究团队称之为"过早承诺"。当一个参与者(Rupert)明确表示某个时间段不可用("我周三10:30有关键的系统维护,这个时间绝对不行"),并且另一个参与者(Oliver)也提出了不同的反建议时,Llama-3-70B没有继续追问或提出新方案,而是直接宣布"大家对周三10:30达成了共识",并假装安慰Rupert说"我们已经找到了也适合你的时间",随即输出了一个错误的最终结论。这种行为就像一个调度员为了快点下班,假装所有人都同意了,然后径直在日历上标注"已定"。它追求的是对话的结束感,而不是逻辑上的正确性。

随着参与会议的人数增加,任务难度急剧上升。研究团队将用户数量从2人扩展到20人进行测试,结果显示:随着人数增加,成功率稳定下降,所需对话轮数则线性增长。当参与人数超过10人且处于信息部分隐藏的条件时,成功率出现了更为陡峭的下滑,显示出多约束条件下信息收集和冲突协调的复杂度对AI来说是一道真实的门槛。

六、整体格局:哪款AI表现最好,差距有多大

综合三道考题的平均得分来看,Gemini-3-Pro以85.6分位居榜首,Claude-Sonnet-4.5和Gemini-3-Flash分别以82.6和82.0紧随其后。GPT-5.1得了78.9分,Claude-Haiku-4.5得了75.0分。开源模型里,GPT-OSS-120B以71.9分表现相对突出,DeepSeek-R1得了70.0分,Qwen3-30B得了74.0分。垫底的是Llama-3-8B(41.8分)和Claude-3.5-Haiku(56.6分)。

值得注意的是,没有任何一个模型在三道考题上都表现优秀。最顶尖的Gemini-3-Pro在指令跟随上接近满分(97.3),在隐私保护上也几乎完美(98.6),但在实用性上只有73.9,在会议协调上也只有64.8。这反映出一个普遍现象:在多用户场景下,隐私和实用性之间的平衡,以及判断正确与执行到位之间的协同,是所有模型面临的共同挑战,而不是某家公司的特有问题。

七、改变从哪里开始:研究团队给出的方向

在揭示问题之后,研究团队也梳理了几个值得重点投入的改进方向。

最基础的一步是改变AI接受输入信息的方式。现有的AI接口并不原生支持"多个用户同时发言"的消息格式,只能把所有人的话拼接在一起塞进"用户"这个单一标签里。未来的系统应该在消息格式层面就明确区分不同用户的身份、角色、权限等级和信息可见范围,让AI能从接收信息的那一刻起,就以结构化的方式理解"谁在说话,他有多大的权力,他的请求在什么范围内合法"。

其次,现有的评估体系主要针对短对话场景。但真实工作场景中,AI助手与多个用户的交互可能持续数周甚至数月。研究团队建议建立专门针对长期、多轮互动的评估标准,重点检验AI在持续压力下(包括来自对话历史积累的上下文压力和外部攻击者的持续骚扰)能否维持一致的隐私保护和权限执行。

在解决指令冲突的方式上,研究团队认为应该借鉴社会选择理论和机制设计领域的成果,也就是那些研究"在多个人的偏好不一致时,如何做出公平合理的集体决策"的经济学和政治学理论,将其系统性地引入AI的训练目标中。这样AI就不仅是在猜谁的话更重要,而是真正按照可解释、可审计的原则来处理冲突。

此外,工具调用的可追溯性和审计能力也被列为重要方向。在多用户场景下,AI做出的每一个决定都可能影响多个人的利益,因此需要有结构化的日志和审查机制,让组织能够事后查看AI在什么情况下做了什么决定,依据是什么。

归根结底,这篇研究指出的核心矛盾在于:AI正以越来越快的速度被部署到多人协作的真实工作环境中,但支撑它们的训练框架依然停留在"一对一服务"的设计范式里。这不是一个可以靠调整几个参数就能解决的小问题,而是需要从数据格式、训练目标、评估标准到系统架构进行系统性重构的深层挑战。

研究还特别强调了将真实用户而非模拟用户引入测试的必要性。真实工作场景中,哪些失败模式最危险、组织对哪些权限边界最敏感,都需要在真实部署中观察,才能形成真正实用的治理框架。

这项研究的价值,不仅在于指出了问题在哪里,更在于它提供了一套可以重复使用的测试工具和框架,让后续的研究者和AI开发团队能够持续跟踪这些问题的改进程度。这对于任何正在考虑把AI助手引入团队协作流程的组织来说,都是一份很有参考价值的警示和路线图。有兴趣深入研究这个方向的读者,可以通过arXiv编号2604.08567找到完整论文,相关测试代码和数据集也已在GitHub(Korde-AI/Multi-User-LLM-Agent)上公开。

Q&A

Q1:多用户大语言模型代理测试中,哪款AI模型综合表现最好?

A:在这套涵盖指令跟随、访问控制和会议协调三个维度的测试中,Gemini-3-Pro以85.6分的平均得分位居榜首,Claude-Sonnet-4.5和Gemini-3-Flash分列二三位。但没有任何模型在全部三个场景下都表现优秀,隐私保护与实用性之间的权衡,以及判断正确与执行到位之间的协同,是所有模型面临的共同挑战。

Q2:大语言模型在多轮对话中为什么会出现隐私泄露?

A:随着对话轮数增加,模型会持续接触用户请求、上下文提示和各种施压策略,积累的上下文会逐渐影响模型的判断,使其倾向于"帮忙解决问题"而淡化访问权限的边界。研究发现,泄露风险主要集中在前六轮对话中急剧上升,之后趋于平稳,但整体保护水平已大幅下降。

Q3:大语言模型会议协调失败的主要原因是什么?

A:主要原因是模型难以同时追踪多个用户的约束条件,尤其当信息不完整时,模型往往不擅长主动追问缺失信息,而是倾向于基于已有信息过早得出结论。Llama-3-70B表现出的"过早承诺"失败模式尤为典型:即使有参与者明确反对某个时间方案,模型仍会宣布"达成共识"并强行结束协商。