打开网易新闻 查看精彩图片

在人工智能快速发展的今天,我们已经见证了AI从单纯处理文字发展到能够同时理解图像、文本等多种信息的多模态大语言模型。然而,这些模型在执行复杂的研究任务时表现如何,特别是当它们需要像人类研究员那样搜集资料、分析证据、撰写带有引用的研究报告时,它们的能力究竟如何呢?

这项由俄亥俄州立大学、亚马逊、密歇根大学、伦敦大学学院等多所知名机构联合完成的研究,于2026年1月发表在arXiv预印本平台,论文编号为arXiv:2601.12346v1。研究团队首次构建了一个专门评估多模态深度研究代理(Deep Research Agents,简称DRA)的综合性基准测试平台——MMDeepResearch-Bench,简称MMDR-Bench。

这个基准测试平台的出现,就像是为AI研究员们设置了一场综合性的"学术能力考试"。考虑到现实中的学术研究很少是纯文本的,研究人员往往需要分析图表、数据可视化、技术图解等各种视觉材料,因此这个基准测试特别强调AI系统在处理多模态信息时的表现。

研究团队精心设计了140个专家级任务,涵盖21个不同的学科领域。这些任务被分为两个互补的类别:日常任务和研究任务。日常任务更贴近普通人的信息需求,比如分析产品截图或解读健康相关的图片信息;而研究任务则更具学术性,涉及分析科学图表、数据图形和技术原理图等。每个任务都由相关领域的博士级专家精心设计,确保既具有多模态信息处理的必要性,又能够通过引用验证其准确性。

为了全面评估AI研究代理的能力,研究团队开发了一套三重评估框架。这套框架就像一个三维的评判体系,从不同角度检验AI的表现。第一个维度是FLAE(公式-大语言模型自适应评估),专门评估研究报告的质量,包括可读性、洞察力和结构完整性。第二个维度是TRACE(可信检索对齐引用评估),重点检查AI是否能够准确引用来源,其声明是否得到引用材料的支持。第三个维度是MOSAIC(多模态支持对齐完整性检查),专门验证文本描述与视觉证据之间的一致性。

这套评估系统的巧妙之处在于其分层激活机制。就像一个多级闸门系统,只有当前两个评估维度都达到基本标准时,第三个最严格的多模态一致性检查才会启动。这种设计确保了评估的效率和准确性,避免在基础能力不足的情况下浪费计算资源。

研究团队测试了25个当前最先进的AI系统,包括单模态基础模型、支持网络搜索的多模态模型,以及专门的深度研究代理系统。测试结果揭示了一些令人深思的现象。表现最好的是Gemini深度研究系统,得分达到49.41分(满分100分),主要优势在于其出色的证据质量和引用对齐能力。紧随其后的是Gemini 3 Flash和Gemini 3 Pro等模型。

值得注意的是,研究发现了AI系统在不同能力维度之间存在明显的权衡关系。一些模型在撰写流畅优美的文章方面表现出色,但在准确引用和多模态证据使用方面却存在不足。这就像一个学生可能文笔很好,但在引用规范和图表分析方面还需要改进。

研究团队还发现了一个有趣的现象:添加视觉处理能力并不总是带来性能提升。在一些情况下,视觉信息的引入反而增加了错误率,特别是在读取精细数字、日期、标签和表格单元格等方面。这表明当前的视觉理解技术仍有改进空间,特别是在处理复杂视觉细节时。

另一个重要发现是多模态对齐能力和引用准确性之间可能存在分歧。一些系统在理解和整合多模态信息方面表现良好,但在引用的严谨性方面却有所欠缺。相反,一些专门的研究代理系统虽然在多步骤搜索和交叉验证方面表现出色,但在处理复杂视觉信息时却容易出现实体识别错误。

工具使用确实有助于提升性能,但研究表明强大的基础模型和丰富的检索交互模式才是关键因素,而不是模型规模本身。一些离线模型在覆盖率方面的表现甚至超过了某些具备网络搜索能力的模型,这暗示代理系统的检索约束可能限制了其获取证据的能力。

为了验证评估框架的可靠性,研究团队还进行了人类一致性检查。他们邀请了12位专家独立评估AI生成的报告对,结果显示完整的评估框架与专家判断的一致性达到73.5%,相关性达到96.4%,明显优于简单的提示基础评判方法。

这项研究的意义远不止于提供了一个新的评估基准。它揭示了当前AI系统在执行复杂学术任务时的能力边界和改进方向。研究表明,仅仅拥有优秀的写作能力并不足以保证忠实的证据使用,多模态整合仍然是深度研究代理发展的关键瓶颈。

对于普通用户而言,这项研究的启示在于我们在使用AI进行研究和信息整理时,需要特别注意验证其引用的准确性和图表解读的正确性。AI可以成为很好的研究助手,但在关键信息的核实方面,人类的监督仍然不可或缺。

说到底,这项研究为我们描绘了AI研究助手发展的现状图景。它们已经具备了相当的能力,能够协助我们处理复杂的多模态信息,但距离完全可靠的自主研究还有一段路要走。未来的改进重点应该放在提升视觉细节理解、增强引用准确性,以及改善文本与视觉证据之间的一致性上。有兴趣深入了解技术细节的读者可以通过arXiv:2601.12346v1查询完整论文。

Q&A

Q1:MMDR-Bench基准测试是做什么的?

A:MMDR-Bench是专门评估AI研究助手能力的测试平台,就像给AI设置的学术能力考试。它包含140个专家设计的任务,涵盖21个学科领域,测试AI能否像人类研究员那样搜集资料、分析图表、撰写带引用的研究报告。

Q2:为什么添加视觉能力有时反而让AI表现变差?

A:研究发现AI在处理精细视觉细节时容易出错,比如误读小数字、日期、标签等。当这些错误信息被当作"证据"用于后续推理时,就会产生连锁错误。这说明目前的视觉理解技术在处理复杂细节方面还不够成熟。

Q3:普通人使用AI研究助手时需要注意什么?

A:主要要注意两点:一是验证AI提供的引用和来源是否准确可靠,二是仔细核实AI对图表、数据的解读是否正确。AI可以很好地辅助研究工作,但在关键信息的最终核实上,人类监督仍然必不可少。