自言自语看似是人类独有的习惯,但最新研究表明,这一行为也能帮助机器学习。内心对话能帮人梳理思路、权衡选择、理解情绪;而冲绳科学技术大学院大学(OIST)的新研究显示,类似的“自我对话”机制可提升人工智能的学习和适应能力。这项发表于《Neural Computation》的研究发现:当AI系统在训练中结合“内心独白”与短期记忆时,多项任务的表现均显著提升。

打开网易新闻 查看精彩图片

研究指出,AI的学习效果不仅取决于系统架构,还与训练过程中的自我交互方式有关。论文第一作者、OIST认知神经机器人研究单元研究员Jeffrey Queißer博士解释道:“本研究强调了自我交互在学习中的重要性。通过构建训练数据让系统学会‘自言自语’,我们证明学习效果不仅由AI的硬件架构决定,还嵌入在训练流程的交互动态中。”

一、“自我对话+工作记忆”:让AI更灵活,少数据也能泛化

为验证这一假设,研究人员将“自我引导式内心独白”(类似小声“嘟囔”)与专门的工作记忆系统结合。这种方法让AI模型学习效率更高,能适应陌生场景,还可同时处理多项任务——与仅依赖记忆的系统相比,其灵活性和整体性能均有明显提升。

团队的核心目标是实现**“内容无关的信息处理”**,即AI能将学到的技能迁移到训练之外的场景,依靠通用规则而非记忆示例解决问题。“人类每天都能轻松切换任务、解决陌生问题,但对AI来说这极具挑战,”Queißer博士说,“因此我们采用跨学科方法,结合发展神经科学心理学、机器学习和机器人学,探索学习的新机制,为AI的未来发展提供思路。”

二、多插槽工作记忆+定向独白:复杂任务性能再升级

研究首先聚焦AI的记忆设计,重点分析工作记忆(短期存储和使用信息的能力,比如遵循指令或快速心算)在泛化中的作用。通过测试不同难度的任务,团队对比了多种记忆结构,发现拥有多个工作记忆插槽(临时存储信息的容器)的模型,在反转序列、重现模式等复杂任务中表现更优——这类任务需要同时存储多条信息并按正确顺序处理。

当团队为系统加入“定向独白次数”的训练目标后,AI性能进一步提升,尤其在多任务处理和多步骤任务中效果最为显著。“我们的组合系统最令人兴奋的一点是,它无需大量训练数据即可实现泛化,而传统模型通常依赖海量数据。这提供了一种轻量级的替代方案,”Queißer博士补充道。

三、从实验室到真实世界:模拟人类学习,服务复杂场景

目前,研究团队计划跳出受控实验室环境,探索更贴近现实的复杂场景。“现实世界中,我们在嘈杂、动态的复杂环境中做决策、解决问题。为更好地模拟人类的发展式学习,我们需要考虑这些外部因素,”Queißer博士说。

这一方向也支持团队更宏大的目标:从神经层面理解人类学习机制。“通过探索内心独白等现象,理解其运作机制,我们能对人类生物学和行为获得全新的基础认知,”Queißer博士总结道,“这些知识还能应用于开发家用或农业机器人,让它们在复杂、动态的现实世界中高效工作。”