2014年,MIT认知科学家Erik Albinson开始追踪一组学生。10年后数据摊开:深度学习者的神经结构并无特殊,他们只是养成了「先问为什么」的肌肉记忆。表面学习者用死记硬背换短期效率,最终换来的是知识体系的系统性崩塌。

这个发现本该是教育领域的警钟,却被AI时代放大了荒诞感。

人类能养成习惯,AI连「养成」的资格都没有

人类能养成习惯,AI连「养成」的资格都没有

Albinson的干预方案对人类完全可行。培养元认知(metacognition,即对自身思维过程的觉察与调控),让「追问因果」成为条件反射,最终内化为默认操作系统。这是可训练、可固化、可传承的技能路径。

AI的困境在于:它没有「内部」。大语言模型的训练逻辑是模式匹配的概率游戏,而非意义建构的因果链条。你可以微调参数让输出更像「深度思考」,但模型本身无法「觉察」自己的推理过程,更谈不上干预。

换句话说,人类学习者能长出第二层思维来监控第一层,AI只有一层,且永远只有一层。

最讽刺的错位:我们在放弃AI求而不得的东西

最讽刺的错位:我们在放弃AI求而不得的东西

Albinson的研究发布于2024年,恰逢全球教育科技投资暴跌34%的节点。讽刺的是,资本正在押注的方向与研究发现背道而驰——用AI助教替代人类导师,用即时答案压缩思考时间,用个性化推荐替代认知挣扎。

表面学习的高效性正在被技术放大。ChatGPT能在3秒生成一篇结构完整的论文,学生为什么还要经历Albinson所说的「慢速复利」?但当一代人习惯了答案的即时投喂,「先问为什么」的肌肉记忆便失去了锻炼场景。

这不是技术批判。技术只是镜子,照出的是人类的选择倾向。

AI的盲区,恰好是人类的护城河

AI的盲区,恰好是人类的护城河

Albinson的10年追踪揭示了一个被忽视的维度:深度理解的价值不仅在于知识留存率,更在于它塑造了一种不可逆的认知结构。一旦学会在信息洪流中主动建构意义,人便获得了AI无法复制的导航能力——在模糊地带定位问题、在矛盾证据中校准信念、在未知领域生成假设。

这些能力无法被提示词工程(prompt engineering,即通过优化输入指令引导AI输出)替代,因为它们依赖于持续的自我修正循环。而循环的前提是:存在一个「自我」来发起修正。

Albinson在视频结尾的断言被很多人忽略:「习惯一旦内化,便从内部统治你。」这句话的残酷之处在于,它同样适用于坏习惯。

当教育产品以「提效」为卖点批量生产表面学习者,人类正在亲手拆除AI永远无法跨越的护城河——不是因为我们变笨了,而是因为「变聪明」的过程被外包了。

Albinson的研究没有给出解决方案,只给出了一个观察窗口。窗口那边,10年数据沉默地堆积;这边,一个更紧迫的问题悬在半空:当AI终于学会模仿深度思考的姿态,我们如何证明自己真的在思考,而非只是表演了一种被训练出来的习惯?