这项由上海交通大学研究团队主导完成的研究,以技术报告形式于2026年5月5日发布在预印本平台arXiv,编号为arXiv:2605.04036v1。对这一领域有深入兴趣的读者可以通过该编号检索完整论文。
**一个让整个AI圈子都有些意外的故事**
先说一个背景:现在的人工智能助手,越来越需要具备"深度搜索"的能力——也就是说,它不只是简单地找一下关键词,而是要像一个经验丰富的研究员那样,在海量信息中反复追踪、多处交叉验证、最终给出靠谱答案。这种能力在业内被称为"深度搜索能力",是当前最顶尖的AI系统必须具备的核心技能之一。
然而,构建这样的AI系统,历来是大公司的专属游戏。阿里巴巴、OpenAI、Anthropic这些巨头,通常需要走一条极其复杂且烧钱的路:先在海量语料库上做"持续预训练",相当于让AI把互联网上的绝大多数内容都通读一遍;然后再用人工标注数据做"监督微调",手把手教它怎么做;最后还要用"强化学习"让它在反复试错中进一步提升。整个过程耗时耗力、成本高昂,需要大量专有数据和庞大的计算资源,普通学术团队根本玩不转。
就在这样的背景下,上海交通大学的研究团队做了一件让人意外的事——他们用仅仅10600条训练数据,通过最简单的训练方式,训练出了一个叫做OpenSeeker-v2的搜索智能体,在四个权威测试基准上都达到了当前最顶尖的水平,甚至超过了阿里巴巴用"持续预训练+监督微调+强化学习"全套重型流程训练出来的Tongyi DeepResearch。这个结果,套用一句江湖上的比喻,就像是一个靠刷精选错题集备考的学生,在高考中打败了那些拥有全套豪华课程的竞争者。
**一、搜索AI到底在做什么,为什么这么难训练**
要真正理解这项研究的意义,得先搞清楚"深度搜索AI"究竟是什么样的东西,以及为什么训练它这么难。
普通的搜索引擎,你输入一个关键词,它给你返回一堆网页链接,然后你自己去看、自己去判断。但深度搜索AI要做的是另一件事:它接到一个复杂问题之后,会自主地制定搜索计划,执行一系列搜索动作,阅读和分析搜索结果,再根据这些结果决定下一步该怎么搜、搜什么,一步一步地推进,直到最终给出一个有据可查的完整答案。这个过程,和人类研究员在图书馆查资料、写报告的过程非常相似。
业内有一个常用的框架来训练这类AI,叫做"ReAct范式"。简单来说,AI每一步都要先"思考"(Reasoning),再"行动"(Acting),行动完之后观察结果,再思考,再行动,如此循环。每一次"行动"就是调用一个工具,比如执行一次网络搜索、访问一个网页、调取某个数据库等等。这样一轮一轮下来,AI就像一个侦探在案发现场反复勘查,最终锁定答案。
训练这样的AI之所以困难,核心原因在于:你需要大量"高质量的示范案例"来让AI学习。就像培养一个优秀的侦探,你不能只给他看简单的失窃案,你需要给他看大量复杂的、需要多方取证的案件,让他学会在迷雾重重的情况下如何一步步找到真相。这些示范案例,在AI训练里叫做"轨迹数据"——也就是完整记录了AI从接到问题到给出答案的整个推理和搜索过程。
问题在于,真正高质量的轨迹数据极其难以获取。要么是靠人工标注,成本极高;要么是靠AI自动生成,但如何确保生成的数据足够复杂、足够有挑战性,让AI真正能学到东西,而不是只学会一些表面功夫,就是一门学问了。
**二、OpenSeeker-v2的核心秘密:让练习题变得更难、更丰富**
上海交通大学的研究团队在这个问题上提出了他们的核心答案:数据质量,特别是数据的难度和信息丰富度,才是训练优秀搜索AI的关键。他们在前作OpenSeeker-v1的基础上,对数据合成流程做了三处关键改动,正是这三处改动,造就了OpenSeeker-v2的突出表现。
整个数据合成的底层逻辑,是基于一种叫做"知识图谱"的结构。你可以把知识图谱理解成一张巨大的关系网:网上的每个节点代表一个知识实体(比如一个人、一本书、一个事件),节点之间的连线代表它们之间的关系(比如"作者是"、"发生于"、"属于"等等)。当AI需要回答一个复杂问题时,它往往需要在这张网上"跳多个节点"——先找到A,再从A找到B,再从B找到C,最终才能拼出完整答案。这种"多跳"的推理过程,就是深度搜索能力的精髓所在。
**第一处改动:扩大知识图谱的规模**
在生成训练数据时,系统会为每一个"种子节点"构建一个局部子图——相当于从知识网络中截取一小块区域,用这块区域来生成一道题目。原来的做法是截取一个较小的区域,生成的题目涉及的知识范围比较有限,AI解题时不需要探索太多节点。
OpenSeeker-v2把这个截取范围大幅扩大了。扩大之后,局部子图里包含了更多、更多样的知识实体和它们之间的关系。在这个更大的知识网络上生成的题目,天然就会更复杂——要回答它,AI需要横跨更多的知识节点,进行更深入的多跳推理,绝对不能靠简单地查一下就完事。
用一个直观的比喻来说:这就好比原来出的题是"找出张三的直属老板是谁",扩大图谱之后出的题变成了"找出张三的老板的老板的大学同学曾经参与过的某个项目的主要负责人是谁"。后者需要跳跃的层级多得多,需要搜索的信息分散在各处,难度不可同日而语。
**第二处改动:扩充可用工具的种类**
原来的训练数据中,AI可以使用的工具种类比较有限。OpenSeeker-v2增加了更多样化的工具,让AI在模拟搜索过程中可以使用更丰富的手段。
这个改动的意义在于:现实世界里的复杂问题,往往需要综合运用多种信息获取手段才能解决。一个好的研究员,不只会用搜索引擎,还会查数据库、翻学术文献、访问专业网站、对比多个来源的说法。通过扩充工具集,训练数据中生成的轨迹就会包含更丰富的工具调用模式,AI学完之后,面对真实任务时就能更灵活地选择最合适的工具组合,而不是只会用几种固定招式。
**第三处改动:严格过滤掉"太简单"的数据**
这是三处改动中最直接也最有意思的一处。研究团队设定了一个门槛:凡是AI完成一个任务所需要的工具调用步骤数量低于某个最低值的,这条数据就被直接丢弃,不纳入训练集。
这背后的逻辑非常清晰:如果一道题AI只需要搜索两三次就能答出来,那这道题其实并没有训练价值,因为它太浅了,AI从中学不到真正复杂的搜索策略。就像备考时大量做简单送分题,感觉做了很多,但真到了考场遇到难题还是手足无措。通过这道过滤门槛,研究团队确保了最终进入训练集的每一条数据,都是需要AI经历足够多轮"思考-搜索-观察"循环才能完成的复杂任务。这就像一个备考策略:专门收集那些至少需要查阅五本参考书、跑四趟图书馆才能解答的难题,强迫你在训练阶段就习惯于长时间、多步骤的深度探究。
经过这三重改造,最终留下来的训练数据只有10600条,但每一条都是"硬骨头"。相关数据也印证了这一点:OpenSeeker-v2训练数据中,每条轨迹平均需要64.67步工具调用,而OpenSeeker-v1的平均步数是46.97步,被拿来比较的RedSearcher则只有36.01步。步数越多,意味着任务越复杂、AI学到的搜索策略越深入。
**三、模型基础与训练方式:简单到出乎意料**
构建OpenSeeker-v2所用的基础模型,是阿里巴巴开源的Qwen3-30B-A3B-Thinking-2507。这个模型的特点是"总参数量30B,但推理时只激活3B参数",可以理解为一个拥有300亿知识储量的大脑,但每次思考问题时只需要动用其中30亿个神经元,既保留了强大的知识基础,又不需要太大的计算资源。模型设置了256000个token的超长上下文窗口,支持单次处理极长的信息,每次任务最多允许调用200次工具,确保它有足够的"机会"去反复搜索和推理。
训练方式就是最朴素的监督微调——给AI看那10600条高质量的示范轨迹,让它学着模仿,一轮跑完就结束,没有额外的强化学习,没有复杂的超参数调整,没有多阶段的课程设计。就这么简单。
**四、测试成绩:在四个战场上全面告捷**
研究团队用四个业内认可的权威测试基准来评估OpenSeeker-v2的能力,这四个基准各有侧重,综合起来能比较全面地衡量一个深度搜索AI的真实水平。
BrowseComp是由OpenAI团队设计的一个浏览器代理测试基准,被公认为"简单但极具挑战性"——它要求AI通过网络浏览找到非常具体、隐藏较深的信息,很多问题连人类都很难快速作答。OpenSeeker-v2在这个测试上得到了46.0%的成绩。
BrowseComp-ZH是BrowseComp的中文版本,专门测试AI处理中文互联网信息的能力。OpenSeeker-v2在这里得到了58.1%的成绩,这个数字格外亮眼,因为中文网络信息的结构和英文有很大不同,能在中文版上表现出色,说明模型的搜索策略具有相当强的跨语言适应性。
Humanity's Last Exam,顾名思义,是一个被设计得极其困难的综合知识测试,涵盖各领域的专家级问题,连顶尖AI模型在这上面的得分通常也不高。OpenSeeker-v2得到了34.6%。
xbench-DeepSearch是另一个专门针对深度搜索能力设计的综合测试平台,OpenSeeker-v2得到了78.0%的成绩。
把这四个成绩拿出来和竞争对手比较,画面就很有说服力了。阿里巴巴通义实验室的Tongyi DeepResearch,经过"持续预训练+监督微调+强化学习"的完整重型流程训练,四个测试的成绩分别是43.4%、46.7%、32.9%和75.0%,四项全部被OpenSeeker-v2超越。RedSearcher同样经历了同等级别的重型训练流程,在BrowseComp上得到42.1%,BrowseComp-ZH上49.8%,Humanity's Last Exam上34.3%——除了最后一项差距不大,其余两项都明显低于OpenSeeker-v2。
WebSailor-V2是另一个有代表性的对比对象,它有两个版本,纯监督微调版本在BrowseComp上只有24.4%,加了强化学习之后也只有35.3%,与OpenSeeker-v2的46.0%仍有明显差距。WebLeaper也是类似情况,监督微调版本27.7%,加了强化学习之后38.8%,依然落后。
研究团队还把OpenSeeker-v2和一些参数量远超它的大模型做了横向比较。DeepSeek-V3.1,参数量高达671B,是OpenSeeker-v2的二十多倍,但BrowseComp上只有30.0%,BrowseComp-ZH上49.2%,Humanity's Last Exam上29.8%,三项均低于OpenSeeker-v2。GLM-4.6-357B和Minimax-M2-230B也是类似情况,参数量远胜但搜索表现不及OpenSeeker-v2。就连Claude-4.5-Sonnet这样的商业闭源顶级模型,BrowseComp上24.1%、BrowseComp-ZH上42.4%、Humanity's Last Exam上32.0%,也都被OpenSeeker-v2全面压制。
当然,也有一些更强的选手。OpenAI的o3在BrowseComp上达到了49.1%,GPT-5-High达到54.9%,DeepSeek-V3.2-671B达到51.4%,Gemini-3-pro在Humanity's Last Exam上达到45.8%。这些更大规模的闭源或超大参数模型,在部分指标上仍然领先OpenSeeker-v2。但研究团队的比较重点,是在"30B参数规模、ReAct范式"这个具体的赛道上——在这个范围内,OpenSeeker-v2确实是当前公开成绩中最强的。
**五、从v1到v2:同样的规模,完全不同的表现**
研究团队在报告中特别强调了OpenSeeker-v1和OpenSeeker-v2之间的对比,因为这个对比最能说明"数据质量"的作用。两个版本用的是同样规模的模型,同样只用了监督微调,训练数据量也相近(v1是11700条,v2是10600条),唯一的差别就是数据合成方式的改进。
结果,BrowseComp从29.5%跳到了46.0%,BrowseComp-ZH从48.4%升到了58.1%,xbench从74.0%提升到了78.0%。这些增幅,仅仅靠改变数据合成策略就实现了,没有增加训练数据量,没有引入更强的训练技术,没有换更大的基础模型。
这个对比,直接印证了研究团队的核心判断:在深度搜索AI的训练中,数据的难度和信息丰富度,比数据的数量更重要,甚至可能比训练方法本身更重要。研究团队认为,OpenSeeker框架在当前的监督微调设置下,性能还远远没有达到上限,通过进一步提升合成数据的质量、难度和多样性,还有很大的提升空间。
**六、这项研究真正改变了什么**
说到底,这项研究最有价值的不只是一个性能更好的模型,而是它传递的一个信号:高质量的深度搜索AI,不再是只有工业巨头才能研发的东西。
过去,学术界和开源社区在这个方向上处于明显劣势,因为"持续预训练+监督微调+强化学习"的完整流程需要的资源远超学术团队的承受范围。OpenSeeker-v2展示了一条可行的替代路径:专注于数据质量,特别是数据的难度和信息丰富度,用精心设计的少量数据加上简单的训练方式,同样能达到顶尖水平。
研究团队已经完全开源了OpenSeeker-v2的模型权重,任何研究者都可以直接下载使用,也可以在此基础上继续研究。这意味着,那些没有巨额预算的学术团队和开源社区,现在有了一个真正可以参考和复现的强基线,深度搜索AI的研究门槛实质性地降低了。
归根结底,这项研究给了我们一个很有启发性的提示:有时候,与其花大量资源去堆砌复杂的训练流程,不如静下心来,认真想清楚"给AI的练习题应该有多难、包含多少信息"这个更根本的问题。一个学生,如果每天做的都是真正有挑战性的综合题,而不是简单的送分题,哪怕练习量少一点,最终的考试成绩往往也会更好。这个道理,在AI训练上同样成立。
对深度搜索AI、大模型训练或相关技术感兴趣的读者,可以通过arXiv编号2605.04036v1检索完整的技术报告,模型权重也可通过PolarSeeker/OpenSeeker-v2-30B-SFT在Hugging Face平台找到。
Q&A
Q1:OpenSeeker-v2用的是什么训练方法,为什么不用强化学习?
A:OpenSeeker-v2只用了监督微调(SFT),也就是让模型学习人工合成的高质量示范案例,整个训练流程只有这一个阶段。研究团队的核心观点是,只要训练数据足够难、信息足够丰富,监督微调本身就已经足够强大,不需要额外的强化学习也能达到顶尖水平。强化学习虽然理论上可以进一步提升,但成本更高、流程更复杂,而研究结果表明,数据质量的提升带来的收益甚至更大。
Q2:OpenSeeker-v2的训练数据是怎么生成的?
A:训练数据是通过知识图谱自动合成的。系统从知识图谱中选取节点,构建一个较大的局部子图,再基于这个子图生成需要多步骤推理才能回答的复杂问题,然后让AI一步步搜索、推理,记录下完整的操作过程作为训练样本。最终,所有步骤数少于设定门槛的简单案例都会被过滤掉,只保留真正复杂的轨迹数据。整个过程不依赖人工标注。
Q3:OpenSeeker-v2能在哪里下载使用?
A:研究团队已经完全开源了OpenSeeker-v2的模型权重,可以在Hugging Face平台上通过搜索"PolarSeeker/OpenSeeker-v2-30B-SFT"找到并下载。相关代码也在GitHub上开源,项目地址是PolarSeeker/OpenSeeker。由于模型参数量为30B,实际部署需要一定的GPU计算资源,普通个人电脑无法直接运行。
热门跟贴