写论文先让AI搭好完整框架,解数学题直接要AI的分步答案,甚至思考一个社会议题,先让AI给出正反两方的完整论述……如今,“遇事先问AI”早已从新鲜事变成了多数人的日常习惯。

AI用流畅、看似无懈可击的答案,帮我们跳过了绞尽脑汁的思考过程,带来了前所未有的效率,也让很多人隐隐不安:我们的独立思考能力,正在被AI一点点消解吗?

打开网易新闻 查看精彩图片

2025年12月,德国波恩大学的Christian R. Klein与Reinhard Klein团队,在国际期刊《人工智能前沿》上发表的一项研究,为这份焦虑提供了系统的科学解释。

团队提出了“空心思维”的核心概念,揭示了生成式AI带来的认知悖论:它本应是人类认知的“延伸器”,却可能在无形中成为我们深度思考能力的“消融剂”。

打开网易新闻 查看精彩图片

而这场认知危机的根源,恰恰藏在AI最吸引人的特质里——无需费力的“无摩擦答案”。

和计算器、搜索引擎这些过往的认知工具不同,生成式AI带来了一场本质性的认知革命。

计算器只是帮我们外包了机械计算,搜索引擎只是帮我们缩短了信息检索的路径,它们都没有触碰学习的核心环节——整合推理。

而今天的大语言模型,能直接完成信息梳理、逻辑构建、观点提炼甚至创造性合成,把人类学习中最需要耗费心力的深度思考环节,直接用现成答案替代了。

从认知科学的视角来看,这恰恰击中了人类学习的底层逻辑。

打开网易新闻 查看精彩图片

诺贝尔奖得主卡尼曼提出的双过程理论早已证实,人的思维分为两套系统:依赖直觉、快速省力的系统1,和负责逻辑分析、缓慢费力的系统2。

真正的深度学习,从来都离不开系统2的全力参与——只有经过主动的思考、试错、冲突解决,我们才能把零散的信息内化成稳定的知识体系,在大脑中构建起可迁移、可复用的思维“脚手架”。

认知负荷理论进一步指出,学习的核心,是需要大脑付出“相关认知负荷”——也就是为了理解、内化知识而主动付出的脑力劳动。

而AI的即时答案,让我们轻易进入了“认知旁路”状态:我们跳过了所有需要费力的思考环节,直接拿到了最终结果,看似完成了任务,实则完全绕过了知识内化的必经之路。

研究团队把这个过程中形成的心理闭环,命名为“主权陷阱”。

人类天生就有“认知吝啬鬼”的本能,会下意识选择最省力的思考路径,而AI的高权威性、高流畅度的输出,恰好给了我们一个完美的“省力出口”。

面对AI给出的完整答案,我们会在不知不觉中放弃自己的“认知主权”——也就是独立判断、审视、质疑、决策的核心能力,把本该由自己完成的思考,全权委托给了AI。

这种认知外包,带来的伤害不只是“想不出来了”,更会在神经层面造成不可逆的影响。

打开网易新闻 查看精彩图片

神经科学研究发现,我们大脑的前扣带皮层,负责检测认知中的矛盾和冲突,是触发我们停下来、重新思考的“警报器”;而外侧前额叶皮层,则负责完成批判性分析、错误修正的深度思考。

当AI的答案过于流畅、看似毫无破绽时,前扣带皮层的冲突警报信号会被大幅削弱,我们也就失去了激活前额叶皮层进行深度思考的动力。

更值得警惕的是神经可塑性的“用进废退”原则:长期不被激活的神经回路,工作效率会持续下降。

如果我们长期依赖AI完成深度推理,负责批判性思维的前额叶网络,就会因为长期缺乏刺激而出现功能退化。

这一点对青少年尤为危险——人类负责高级认知、执行控制的前额叶皮层,要到20岁左右才能发育成熟,青春期正是这个脑区发育的关键窗口期。

如果未成年人在认知发展的核心阶段,就习惯了用AI替代自己的思考,其认知能力的底层发育,可能会受到不可逆的影响。

打开网易新闻 查看精彩图片

很多人会说:“既然AI什么都知道,我为什么还要费力去学?”。

但过往数十年的认知研究早已证实,这种想法背后,藏着一个致命的认知误区。

2011年的“谷歌效应”研究发现,当人们知道信息可以随时从外部获取时,大脑会放弃记忆信息本身,只记住“去哪里找这个信息”,这就是所谓的“数字失忆症”。

就像长期依赖GPS导航的人,大脑海马体的空间记忆功能会持续弱化,再也无法在脑海中构建出完整的认知地图。

而生成式AI带来的,是比搜索引擎、GPS更深刻的认知空心化。

研究团队指出,过度依赖AI形成的“空心思维”,不是简单的“记不住东西”,而是失去了独立构建逻辑、形成观点、验证真伪的核心能力。

这种状态最残酷的现实集中体现在研究中发现的“专业知识二元性”上:AI对人的影响,完全取决于使用者本身已有的知识储备。

对于领域内的专家来说,AI是能力的“放大器”。

专家的大脑中,已经构建起了完整的领域知识体系,他们能精准判断AI答案的对错、漏洞与局限性,把AI当成“新皮层合作伙伴”——用AI完成重复性的基础工作,自己则专注于更有创造性的深度思考,最终实现1+1>2的效果。

但对于知识储备不足的新手来说,AI只是一个虚假的“均衡器”。

它能让一个新手快速拿出看似专业的成果,却无法帮他构建起支撑这个成果的知识体系。

此时的AI,更像是一个“外部海马体”,在新手还没来得及把信息内化成自己的知识时,就直接给出了最终的成品,就像一个学生直接抄了AI的论文,哪怕论文逻辑再严谨,他也无法解释其中的推理链条,更无法把其中的方法迁移到下一个问题中。

更可怕的是,这种“看似会了”的能力错觉,会进一步强化他对AI的依赖,形成“越依赖,越不会思考;越不会思考,越依赖”的恶性循环。

这种二元性,最终会带来一个令人不安的结果:AI不仅不会抹平认知差距,反而会让强者愈强、弱者愈弱。

专家用AI放大自己的创造力,而新手则在AI的温柔包裹中慢慢陷入“空心思维”的陷阱,失去独立思考的底层能力。

更值得警惕的是,这种认知外包,还会瓦解我们构建稳定信念体系的能力。

打开网易新闻 查看精彩图片

普林斯顿大学Rose E. Guingrich团队的研究指出,人类的知识和信念,是在主动的思考、验证、修正中,和大脑中已有的其他知识深度绑定形成的,我们清楚“自己为什么相信这件事”,也能在出现反证时重新审视。

但从AI那里获得的观点,往往缺少了这个深度绑定的过程,我们很难说清“这个结论是怎么来的”,更无法对其进行有效的验证和修正。

长此以往,我们的信念体系会变得越来越模糊,最终甚至会放弃独立形成观点的能力,把“判断对错、选择相信什么”的权力,也一并交给AI。

难道我们只能拒绝AI,才能避免陷入“空心思维”吗?

研究团队给出的答案是否定的,AI本身不是洪水猛兽,问题的核心在于我们如何重构和AI的互动模式,以及AI系统本身的设计逻辑。

对抗“空心思维”的核心,是培养论文中提出的“强化思维”——一套由扎实的领域基础知识、成熟的元认知能力,和主动进行深度思考的习惯构成的认知体系。

这不是让我们死记硬背零散的知识点,而是要构建起一个领域的核心思维框架,这是我们能独立判断AI输出、驾驭AI工具,而不是被AI牵着走的根本前提。

对个人而言,守住自己的“认知主权”,关键在于改变和AI的互动方式:不要把AI当成直接要答案的“抄作业工具”,而是把它当成辅助思考的“脚手架”。

面对一个问题,先自己完成思考、搭建框架、形成初步的想法,再用AI去补充细节、验证逻辑、指出漏洞,而不是反过来,让AI替你完成从0到1的核心思考。

哪怕只是拿到AI的答案后,强迫自己用自己的话重新解释一遍逻辑,也能有效激活大脑的深度加工过程,避免陷入认知旁路。

而对AI系统的设计者来说,研究团队提出了一个核心的设计方向:把AI从“答案引擎”,改造成“认知训练环境”。

未来的教育AI,不应该追求“无摩擦的即时答案”,反而应该主动制造“必要的困难”——比如不直接给出结果,而是通过引导式提问,推着用户自己一步步找到答案;根据用户的能力水平,逐步减少辅助,让用户的思考能力在这个过程中得到锻炼,而不是被替代。

在AI无处不在的今天,我们终于意识到,人类最核心的竞争力,从来不是记住多少信息、算得多快、写得多流畅。

而是独立思考、批判性判断、主动构建知识体系的能力。

AI能帮我们省去思考的辛苦,却无法替我们获得思考带来的成长。

所谓“认知主权”,从来不是拒绝使用AI,而是我们永远要做那个思考的主体、决策的最终掌控者。毕竟,能驾驭工具的人,永远是那些先懂得独立思考的人。