来源:AI知新
当GPT-4o能流畅对话、Llama 3能生成高质量代码,当大语言模型(LLM)渗透到工作、生活的每一个角落,我们难免会产生一种错觉:通用人工智能(AGI)似乎触手可及。
但一篇最新发表在arXiv(论文编号:arXiv:2603.15381)的研究,却给狂热的AI行业泼了一盆冷水。这篇由图灵奖得主Yann LeCun等顶尖学者参与的论文,提出了一个振聋发聩的判断:当前主流LLM,本质上从未真正“学会学习”,而这正是它们无法突破瓶颈、抵达真正智能的核心原因。关键真相:LLM的“学习”,只是“伪装”出来的优化。
我们总以为,LLM在和人类交互的过程中会不断进步——比如通过提示词引导变得更精准,通过微调适配特定任务,通过RAG检索最新信息。但论文明确指出:这些都不是真正的“持续学习”,只是对一个固定系统的“外部修饰”。
简单来说,LLM在完成预训练的那一刻,就相当于被“冻住”了。它的核心知识体系、内部表征的逻辑的,不会因为后续的每一次交互、每一个新问题而自主更新——就像一个背诵了海量题库的学霸,能完美应对熟悉的题目,却无法从新题目中总结规律、补充自身的知识漏洞。
这和人类的学习模式有着本质区别:我们会在与人交流、解决问题、观察世界的过程中,不断修正认知、积累经验,甚至推翻旧有的错误观点。但LLM做不到,它所有的“进步”,都依赖于人类提供的外部辅助:
提示词工程:相当于给学霸划重点,让它优先调用熟悉的“题库内容”,却不会让它学会新的解题思路;
微调:相当于针对特定题型专项训练,提升某一领域的正确率,却无法让它具备跨领域的自主迁移能力;
RAG:相当于给学霸配了一个工具书,遇到不会的问题可以查资料,但它不会把工具书里的知识内化成自己的能力,下次遇到类似问题,依然需要依赖工具书。
更关键的是,这种“外部修饰”式的优化,无法解决LLM的核心痛点:它们本质上是“模式拟合与统计预测的高手”,却不是“具备自主认知的智能体”。这也是为什么我们总会遇到LLM“时灵时不灵”的情况——在熟悉的场景里表现惊艳,在陌生场景、长链推理或需要稳定世界认知的任务中,却频繁出错、漏洞百出。
就像2024年全球因LLM“幻觉”导致的经济损失达127亿美元,金融领域的信贷评估、法律领域的判例检索、医疗领域的诊断建议中,都曾出现LLM编造事实、推理断裂的问题,本质上就是因为它无法通过持续学习修正自身的认知偏差。瓶颈在哪?未来又该往哪走?
一种主流观点认为,LLM的能力上限,早已被“训练后不自发更新”的架构锁死。部署后的LLM,缺少像生物体那样从持续经验中形成“可积累、可修正”的知识体系——它们不会“记教训”,不会“总结经验”,更不会“主动探索”,因此难以适应动态变化的真实世界,也无法具备稳定一致的认知能力。这就像传统持续学习中面临的“灾难性遗忘”困境,只是LLM的瓶颈更隐蔽:它甚至没有“遗忘”的资格,因为它从未真正“记住”并内化新的知识。
也有观点认为,我们不必全盘否定提示词、微调与RAG的价值。这些技术虽然不等同于“在线学习”,但在工程层面,确实能显著提升LLM的任务表现与可控性——比如CLOB框架通过提示词操作实现了无需参数修改的持续学习,大幅提升了工业场景中的响应效率,只是这种改进更像是“外部补丁”,而非模型内部能力的自进化,无法从根本上突破瓶颈。
还有讨论聚焦于“规模扩展”的争议:有人认为,只要继续扩大模型参数、增加训练数据,LLM就可能涌现出更接近通用智能的能力;但更多人认为,规模只是“量的积累”,无法实现“质的飞跃”。如果不引入更强的交互学习、可验证记忆与世界建模机制,LLM即便参数再大,也依然会在跨场景泛化、因果理解与长期一致性上遭遇天花板——就像再强大的计算器,也无法拥有自主思考的能力。
而最受关注的,莫过于Yann LeCun的研究转向。作为AI领域的顶尖学者,他参与了这篇论文的研究,同时正全力投入“世界模型”的研发,这被很多人视为行业趋势的信号:下一阶段的AI竞争,将从“更大的语言模型”,转向“能在环境中学习、形成可操作内部模型的智能体系统”。
其实,理解LLM的瓶颈,无需复杂的技术知识,抓住三个核心层面,就能看透问题的本质。
第一层:分清“训练后改进”与“持续学习”。很多人混淆了这两个概念——前者是“外部辅助下的表现优化”,后者是“模型自身的认知升级”。LLM能通过外部手段变得“更好用”,但无法变得“更聪明”,因为它的核心认知的不会因为交互而改变,知识载体始终停留在预训练的参数空间,无法像CLOB框架那样实现知识向语义空间的迁移与动态更新。
第二层:明白“不持续学习”为何是致命瓶颈。真实世界是动态变化的,新的知识、新的场景、新的问题不断出现。如果LLM无法自主从交互中积累经验、修正认知,就只能在“预训练的知识边界内”活动——熟悉的场景游刃有余,陌生的场景手足无措。这也是为什么LLM在多步推理、反事实推理中表现拉胯,因为这些任务需要持续的认知迭代,而这正是它的短板。
第三层:看清未来的突破方向。论文中提到的“认知科学视角”“自主连续学习”“世界模型”,其实指向了同一条路径:未来的AI,不该只是“语言预测器”,更该是“具备自主学习能力的智能体”——它能在与环境的交互中,形成可更新的内部模型、可验证的记忆与可自我修正的学习循环,就像LeCun团队提出的三系统架构,通过System A(观察学习)、System B(主动学习)和System M(元控制)的协同,模拟人类的学习过程,实现真正的终身学习。
结语:规模之外,范式革新才是关键
不可否认,LLM是AI发展史上的重要里程碑,它让我们看到了人工智能的巨大潜力。但我们必须清醒地认识到:LLM的强大,只是“统计预测的胜利”,而非“自主智能的突破”。
Yann LeCun的转向、最新论文的警示,都在告诉我们:仅靠扩展模型规模、优化外部辅助技术,无法让LLM抵达真正的智能。想要突破瓶颈,需要的是学习机制与体系结构的范式革新——从“让模型学会答题”,到“让模型学会学习”;从“语言预测器”,到“能感知、能思考、能进化的智能体”。
或许,真正的通用人工智能,从来不是“训练出一个完美的模型”,而是“创造出一个能自主成长、持续进化的智能系统”。承认局限,才能突破局限。
未来,当AI能像人类一样,在交互中积累经验、在试错中修正认知、在探索中突破边界,真正的智能突破,才会如期而至。
阅读最新前沿科技趋势报告,请访问21世纪关键技术研究院的“未来知识库”
未来知识库是 “21世纪关键技术研究院”建 立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。 欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。
截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告
(加入未来知识库,全部资料免费阅读和下载)
热门跟贴