训练的假象
"机器学习"这个名称,本身就是一个值得追问的谎言。
我们教机器预测,却称其为"学习";我们用数据拟合函数,却期待它真正理解。这并非咬文嚼字——近期一篇来自认知科学与AI交叉领域的研究,试图回答一个基本问题:当机器"学习"时,它们到底在做什么,以及它们遗漏了什么。
这篇论文的核心矛盾,比该领域多数人愿意承认的更深刻。
一、我们所说的"学习",究竟是什么
仔细观察就会发现,如今的人工智能系统并非以我们直觉理解的方式学习。它们在训练、在优化、在扩维——但真正的学习,属于另一回事。
现代AI系统只擅长一件事:从海量数据中提取模式。
只要给模型足够的数据、算力和时间,它就能:
预测下一个词元
对图像进行分类
生成可用代码
通过大多数人都不想考的考试——GPT-4曾以排名前10%的成绩通过律师资格考试
这是实打实的进步,支撑了过去十年里绝大多数突破性成果。
但它存在一个结构性缺陷:
这些系统几乎只在预定义的训练阶段学习,且通常基于精心筛选的数据集。一旦部署,它们基本以固定函数的形式运行——更新需要重新训练、微调或人工干预。
换句话说,它们不具备持续学习能力。
该论文将此定义为一项根本性局限:当前系统缺乏自主、持续的学习能力,无法在开放环境中动态适应。
这道鸿沟,正是"在基准测试中表现优异的系统"与"在现实世界中稳健运行的系统"之间的区别。
二、为何这对AI从业者至关重要
乍看之下,这似乎是学术上的吹毛求疵。毕竟,如果模型能用,学习过程真的重要吗?
现实中,它至关重要。
那些反复出现的问题正是其体现:
系统难以处理分布外场景:一辆在晴好天气下训练成熟的自动驾驶系统,遭遇一场暴雨,便可能彻底迷失——因为它从未真正"理解"雨天行驶的物理规律,它只是在相似数据中看到了更多相似模式
长周期任务几步后就崩溃:想让AI自主规划并执行一个需要数十步推理的复杂项目?通常在第七、八步左右,它就会开始重复、矛盾、遗忘初始目标
上下文遗忘速度远超预期:你以为给了它完整背景,它就能记住?在大多实际部署场景中,超过一定窗口的信息便如指间流沙
现实世界交互能力依然脆弱:用户稍微换一种问法,系统便可能完全偏离方向
这些问题反复出现,根源在于当前学习模式的结构性缺陷。
论文将当下的范式比作流水线:收集数据→训练模型→产出结果,系统本身不会通过经验进化。这套模式在静态任务中表现良好,在动态世界里则效果大打折扣。
三、生物学视角下的学习
为了弄清缺失了什么,该论文采用了非常规思路——借鉴认知科学。
生物系统不会把学习切割成泾渭分明的阶段,而是持续融合多种学习方式:
被动观察
主动交互
对学习内容与时机的内部调控
论文将其归纳为三个组成部分:
系统A:通过观察学习
这与当前模型的能力高度吻合——从数据中学习模式,多以自监督方式实现。大语言模型在海量文本上训练,正是这一系统的极致体现。
系统B:通过行动学习
通过与环境交互、试错、反馈与适应完成学习。这需要的不只是"看",而是"做"——在真实世界中行动,观察结果,调整策略。这也是为什么强化学习在游戏和机器人领域表现突出。
系统M:元控制
这是关键层级:系统自主决定如何学习、何时观察、何时行动以及如何分配资源。这是生物学习中最神秘的组成部分——关于学习的学习。
当前的现实是:
今天的人工智能系统拥有强大的系统A,却几乎没有真正的系统B和系统M。它们更像是被迫透过玻璃看世界的旁观者,而非在世界中行走的学习者。
这恰恰解释了前文提到的所有问题。
四、它们是"被训练"的,不是"自己学"的
该论文的核心观点直白却令人难以接受:
如今的人工智能系统都是非自主学习者。
它们高度依赖:
筛选好的数据集
预定义目标
外部监督
却不具备以下能力:
生成自主学习信号
持续适应新环境
构建随时间进化的内部模型
给 GPT 一个问题,它能回答。但给它一个没有问题的世界,它不会自己去找问题——而这,恰恰是学习的真正起点。
这也解释了为何单纯扩维会出现收益递减:性能在提升,但学习范式始终没变。就像只升级汽车引擎,却不改造转向系统——再强的动力,也无法改变方向失控的事实。
五、全新架构可能的样子
作者并未止步于批判,还结合强化学习、自监督学习与认知科学理念,勾勒出未来方向。
未来系统将可能实现:
同时从观察与交互中学习:不再只依赖静态数据集,而是在环境中主动探索、试错、修正——像儿童学习走路那样
持续更新内部表征:不再将"学习"视为一次性事件,而是贯穿整个运行周期的持续过程
元控制机制动态引导学习:自主决定何时该收集新数据、何时该更新内部模型、何时该等待更多信息
在开放环境中运行:不再被限制于训练数据分布之内,而是能够处理真实世界的多样性和不定性
在这种框架下,学习成为持续过程,而非一次性事件。训练只是起点。
这并非遥不可及的科幻。强化学习已经在游戏领域展示了"通过交互学习"的雏形;具身智能的研究者正在探索让AI通过机器人身体与真实物理世界互动;元学习(Meta-Learning)领域正在尝试让模型学会"如何学习"。
差距依然巨大,但方向已经清晰。
六、客观审视:现有范式依然有价值
在宣称机器学习迎来重大变革前,我们需要保持理性。
当前技术路径:
在诸多领域效果极佳——翻译、图像识别、代码生成、搜索引擎
可预测性扩维——更大的模型、更多的数据、更强的算力
创造真实经济价值——从药物研发到内容生产
这些都依然成立,且不会因为一篇论文的批评而消失。
该论文并非否定现有成果,而是指出其不完整性。它不是在说"深度学习是错的",而是在问"深度学习遗漏了什么"。
这个区别至关重要。
七、反方:为何现有范式依然值得坚守
任何严肃的讨论都应承认另一面的分量。
批评"当前AI不会真正学习",有时是一种精英视角的傲慢。
事实上,在足够好的数据条件下,当前的范式已经足够好用。对于大多数实际应用场景——垃圾邮件分类、产品推荐、语言翻译——我们不需要机器"真正理解",只需要它"足够准确"。模式识别已经能满足这些需求。
此外,"真正学习"是否是我们追求的目标本身,也值得追问。如果一个系统能够在不"理解"语义的情况下准确完成所有任务,我们真的需要强迫它"理解"吗?
这场争论,本质上是两条路线的分歧:
工程路线:只要结果好,机制不重要
认知路线:真正的智能需要真正的理解
两者都有价值,未来的答案或许不是非此即彼,而是找到它们各自的适用范围。
八、那么……AI真的会学习吗?
会,但仅限于狭隘、明确的框架内。
它在训练阶段学习,在限定范围内泛化,在合适条件下表现惊艳。
但持续、交互、自主导向的学习,目前仍无法实现。
这个区别至关重要。
因为人工智能的下一波突破,或许不再是把现有范式扩得更大,而是重新定义"学习"的本质。
"机器能否从世界中学习?"这个问题之所以重要,不是因为它能帮我们造出更聪明的机器,而是因为它迫使我们先回答另一个问题:
什么才是真正的学习?
在追问机器之前,我们或许应该先问问自己。
热门跟贴