一项新研究发现,当前主流的大语言模型摘要工具存在一个隐蔽缺陷:它们倾向于跳过"识别关键信息"这一步骤。
研究人员测试了多种开源和商业摘要系统,发现这些模型在生成摘要时,往往直接进行文本压缩,而非先判断哪些内容真正重要。这导致输出结果可能遗漏原文的核心论点,或过度强调次要细节。
打开网易新闻 查看精彩图片
问题出在训练方式上。现有模型主要通过"输入长文本、输出短摘要"的端到端方式学习,缺乏显式的"关键信息筛选"中间环节。研究团队指出,这类似于让学生直接写读后感,而不先要求划出重点段落。
打开网易新闻 查看精彩图片
该发现对依赖自动摘要的行业有直接影响。金融分析、法律文档处理、医疗记录总结等场景,若系统无法可靠识别关键信息,可能带来决策风险。目前尚无主流产品公开宣称已解决这一问题。
打开网易新闻 查看精彩图片
热门跟贴