来源:市场资讯
(来源:环球科学科研圈)
本文来自“FCS”,文章仅代表作者观点,与“环球科学科研圈”无关。
摘要
大语言模型(LLM)通过调用外部工具(如API或函数)能显著增强其解决复杂问题的能力,但如何最优地培养这种能力仍缺乏系统研究。复旦大学团队重点研究了“情境化工具调用”(In-context Tool Use),即模型根据上下文提供的候选工具说明来执行任务的能力。研究团队识别出影响该能力的三个核心因素:工具数量、每个工具的示例数量以及模型参数规模。通过构建大规模高质量数据集RapidTools并进行系列控制变量实验,研究证实增加模型规模和训练中的工具种类能稳定提升性能,而增加单一工具的示例数量效果则因情况而异。
文章精要
工具调用(也称函数调用)是使大模型能够突破自身知识边界、访问实时信息并执行复杂动作的关键技术。目前存在两种主流框架:一种是“内在工具调用”,模型在训练中学习固定的工具集;另一种则是更具挑战性的“情境化工具调用”,要求模型能够根据推理时上下文给出的新工具说明,灵活地对从未见过的工具进行操作。尽管这一能力至关重要,但开发者在准备训练数据时,往往不清楚是应该收集更多种类的工具,还是针对每种工具提供更多的对话示例,抑或是单纯依靠增大模型规模来解决。
为了回答这些问题,复旦大学与荣耀设备有限公司的研究团队提出了RapidTools数据集,并针对三个核心变量开展了深入分析。实验结果表明,在提升大模型对“未见工具”的泛化能力方面,工具的“多样性”(即训练集中工具的总数)远比单一工具的“熟练度”(即每个工具的示例数)更重要。同时,模型参数规模的提升展现出了显著的“涌现”效应,更大的模型在处理复杂工具组合时具有明显优势。
该项研究不仅为大模型工具能力的训练提供了科学的指导原则,即优先保证工具种类的丰富度,还通过开源RapidTools数据集,为该领域的后续研究奠定了基础。这种“以多样性驱动泛化”的思路,对于构建更具通用性的智能体系统具有重要参考价值。
期刊简介
Frontiers of Computer Science (FCS)是由教育部主管、高等教育出版社和北京航空航天大学共同主办,南京大学支持,SpringerNature 公司海外发行的英文学术期刊。本刊于 2007 年创刊,月刊,全球发行。主要刊登计算机科学领域具有创新性的综述论文、研究论文等。本刊主编为周志华院士,共同主编为熊璋教授。编委会及青年 AE 团队由国内外知名学者及优秀青年学者组成。本刊被 SCI、Ei、DBLP、INSPEC、SCOPUS 和中国科学引文数据库(CSCD)核心库等收录,为 CCF 推荐B类期刊;两次入选“中国科技期刊国际影响力提升计划”;入选“第4届中国国际化精品科技期刊”;两次入选“中国科技期刊卓越行动计划”(一期梯队、二期领军)。
往期目录
2026 No.4
2026 No.3
2026 No.2
2026 No.1
2025 No.12
2025 No.11
2025 No.10
2025 No.9
2025 No.8
2025 No.7
2025 No.6
2025 No.5
2025 No.4
2025 No.3
2025 No.2
2025 No.1
热门跟贴