打开网易新闻 查看精彩图片

最近看了一条新闻,韩国教育广播公司公布了一项AI教育实验结果,一句话概括就是,AI得来终觉浅,绝知此事要躬行。

这项实验是今年底在韩国京畿道金浦市一所高中进行的,老师给学生布置作业,要求他们在阅读指定书籍并撰写读后感。

参与实验的一部分学生被引导完全依赖ChatGPT这样的生成式AI来完成任务。为了测试AI的替代程度,这些学生完全没有阅读原著,而是通过向AI输入指令,生成了一篇逻辑通顺的读后感,并提交了作业。

不过,在作业提交仅1分钟后,研究人员对学生进行访谈。结果发现,83.3% 的学生无法回忆起自己刚刚“写”下的任何核心观点、金句或文章结构,可谓是零记忆提取。

在随后的测试中,这些学生几乎无法从自己的文章中复述出任何细节。文章虽然是他们提交的,但在大脑中却没有留下痕迹。

参与实验的另一部分学生,则用传统的方法,坚持自己阅读、思考,并完成读书报告的学生,在数天后依然能清晰地阐述书中的逻辑,证明了传统手搓式学习的靠谱。

01

认知外包就是精制糖果,一点点侵蚀大脑

纪录片中,韩国研究人员在实验过程中使用了脑电图(EEG)等监测设备,对比了自主思考写作和使用AI代写时大脑的活跃度。结果显示,使用AI时,大脑负责处理高级逻辑的区域几乎没有电流活动,这种状态被专家描述为认知上的空转。

实验中那 83% 的学生表示,点击提交按钮的那一刻,大脑就像清空了回收站一样,因为他们没有经历过从无到有的痛苦构建过程。

认知外包的副作用比我之前想象的要严重多了。从过去记笔记的小本子,到谷歌地图,再到现在豆包元宝ChatGPT这样的大模型,他们都可以帮助我们减少大脑认知负担,可以视为是典型认知外包工具

上述实验中,当使用大模型的学生意识到,生成内容这个任务可以完全交给外部工具时,负责深度加工、逻辑整合、自我监控的区域(如前额叶皮层)活跃度大幅下降。

在ChatGPT的帮助下,学生潜意识里把自己从思考者变成了搬运工。因为没有经历“提取信息-转化逻辑-语言编码”这个痛苦的内化过程,大脑认为这些信息是不重要的噪音,因此拒绝将其存入长时记忆。

长期使用认知外包工具的首先知识幻觉简单说,就是用户会误以为能搜索到的信息就是我掌握的知识。

耶鲁大学研究人员在2015年就做过搜寻效应实验,研究者让一组参与者通过谷歌搜索问题,另一组则不允许使用网络。结果发现,即便搜索组并没有真正记住答案,他们在评估自己对无关领域(比如,为什么云彩是白的?)的了解程度时,信心显著高于对照组。

其次,过度依赖搜索引擎、大模型提供答案,大脑会自动卸载那些它认为可以随时在外部找到的信息,导致长时记忆萎缩

在哈佛大学与哥伦比亚大学在2011年进行的保存实验中,参与者被要求向电脑输入一些事实。一组被告知“电脑会保存这些信息”,另一组被告知“信息会被删除”。随后进行的记忆测试显示,认为电脑会保存信息的一组,对内容的记忆效果极差。

和我们的肌肉一样,大脑如何不进行思维锻炼,也会变懒、变弱。

MIT媒体实验室EEG脑电图实在2025年7月发布的一项研究显示,研究者记录了学生在自主写作与ChatGPT辅助写作时的脑电波。结果显示,AI组在前额叶皮层负责深度思考和决策的活跃度极低。更令人惊讶的是,在连续使用AI数周后,这些学生在没有AI辅助的情况下,其脑电活跃度也无法恢复到基准水平。

02

失去批判性,意味着什么?

火的出现让我们的胃萎缩了,互联网的出现让我们的记忆力减退了。而大模型的普及,正在尝试替代人类的前额叶皮层,也就是代理人类形成逻辑、作出决策。

Halpern批判性思维测评(Halpern Critical Thinking Assessment, HCTA) 被公认为是测量批判性思维最权威的工具之一,由美国著名心理学家戴安·哈尔彭(Diane Halpern)开发。

2025年,由斯坦福大学与哈佛大学心理学系联合开展,利用HCTA量表对全球超过2000名(其中核心样本为666名高频使用AI的专业职场人)受试者进行了为期一年的跟踪,这也是该测评体系自诞生以来最重要的一次针对性迭代研究。

与传统的选择题不同,HCTA 采用“开放式问答+多项选择”的组合。开放式部分,要求受试者自己构建论点、解释现象。多项选择部分,考察受试者在已有选项中识别逻辑谬误的能力。核心变量是,受试者每日调用生成式AI(如ChatGPT、Claude)处理工作/学习任务的时长与频率。

研究发现,在高频使用AI的人群中,这五个维度的表现呈现出明显的不对称衰减:

言语推理方面,由于AI倾向于给出平铺直叙、极度理性的解释,导致长期依赖者失去了捕捉言外之意和语言复杂性的敏感度,受试者在识别讽刺、隐喻或模糊修辞方面的能力大幅下降

分析论证方面,80%的高频使用者在没有AI辅助的情况下,虽然能够识别别人的漏洞,却无法在20分钟内完成一个逻辑闭环的商业提案。

假设检验方面下滑最严重,受试者表现出极强的“权威偏见”,即倾向于相信AI给出的第一个结论,不再主动寻找反面证据或设计控制变量

可能性与不确定性判断方面,受试者对概率的直觉变得钝化。因为AI往往以极其笃定的语气回答问题,受试者习惯了标准答案,而失去了在灰度地带进行权衡的决策能力。

决策与问题解决方面,陷入路径依赖。面对全新的、AI训练库里没有的问题,受试者往往表现得无从下手。

03

职场智力断层已经出现

Halpern批判性思维测评实验一个更残酷的发现是,00后一代的批判性思维水平远低于80后,AI导致的智力断层已经出现。

具体测试数据显示,17-25岁的AI原生一代(也就是我们熟悉的00后),在HCTA的总分比35-45岁的群体(大概是80后一代)低了整整28%。研究者担忧,这预示着一种代际智力断裂。

Halpern 2025年的研究,提示这样一种残酷的现实,批判性思维不是一种学会了就永远拥有的知识,而是一种不练就会萎缩的肌肉。

AI原生一代们在职业早期过度依赖AI,虽然产出效率高,但也跳过了通过痛苦思考构建底层逻辑的过程,他们可能会在30岁左右遇到严重的认知瓶颈,因无法形成需要对复杂问题的决策、风险评估和架构设计能力,失去上升通道。

在Reddit、脉脉上,资深经理们关于新入职员工的AI 依赖症的吐糟也开始增多。正如加州大学教授 Anastasia Berg 所警告的:“没有 AI 辅助,他们甚至无法独立开启一项任务。”

那些彻底将思考外包给AI的人,将沦为数字蓝领,他们的工作极易被下一个更便宜的AI补丁所取代。那些学会了AI工具,且保有批判性思维的老兵,将成为真正的超级个体,他们既用AI加速,更用人脑把关,这是目前更具竞争力的形态。

哈佛大学和斯坦福大学在 2025 年的一项联合研究,他们基于 LinkedIn 和 Revelio Labs 的 6200 万员工数据,发现了一个明确的趋势,AI 更偏向资深员工。

他们的调查发现,自 2023 年第一季度以来,积极采用 AI 的公司,其初级职位缩减了 7.7%。相比之下,资深员工,也就是需要拥有复杂决策能力的岗位却异常稳固。

职场智力断层不仅是指 AI 让所有人变笨,而是指它剥夺了新人从笨变聪明的进化路径。

上述研究表明,咨询业、市场研究、法律助理和基础编程等行业受损最重。以前需要 5 个初级员工处理的调研数据、合同审核、代码测试,现在由 1 个资深专家带两个 AI 助理就能完成。

这导致了所谓的方尖碑式结构,公司不需要底层的初级人才,这直接掐断了人才培养的学徒期。

04

集体失智风险大增

今天,数亿中国人已经离不开大模型。中国互联网络信息中心发布《生成式人工智能应用发展报告(2025)》 显示,截至2025年6月,我国生成式人工智能用户规模达5.15亿人,普及率为36.5%。

生成式人工智能已经出现某种寡头垄断局面。根据研究机构Quest Mobile发布的《2025下半年AI应用交互革新与生态落地报告》,在12月8日至12月14日,豆包周活跃用户数在全市场AI原生App中居榜首,达1.55亿,DeepSeek、元宝分别位居第二、第三,周活跃分别为8156万、2084万。

当你习惯了让豆包和DeepSeek帮你思考,你也就失去了定义世界的话语权。当数亿人都在向同一个逻辑模型索取建议时,整个社会的思维多样性正在萎缩,思维走向集体平庸。

大模型的本质是预测下一个最可能的字,也就是说,它更多是一种鹦鹉学舌式的智能。它给出的是最大公约数式的、符合统计学逻辑的平庸答案。

当人们在写周报、写情书、做决策都参考豆包或DeepSeek时,人类的独特性、偏见、甚至天才的错误都在消失。社会正在变成一个由AI生成的、逻辑严密但缺乏灵魂的平滑体。

创造力源于知识的跨界碰撞。如果知识都在AI里,而不存在于人类的大脑神经连接中,那么这种碰撞就永远不会发生。当一代新人只会根据AI建议做决策时,社会将失去应对黑天鹅事件的能力。

如果这种趋势持续到2026年,我们将面临一种真实的社会风险,当AI产生幻觉提供错误知识,而数亿用户因缺乏底层知识储备而无法识别时,错误信息会像病毒一样在社会常识中固化。

05

人人可以学得会的认知健身课

面对数亿人陷入认知外包导致的智力萎缩,主动构建一套认知健身方案,已成为2026年打工人的必修课。

解铃还须系铃人。我请Gemini给出了一套方法,它的核心不是拒绝AI,而是通过增加必要的难度来防止前额叶皮层的退化。

方法一,坚持思考先行的原则。(如果你实在记不住下面三条,最好记住这条。)

面对任何复杂任务,如写方案、分析数据、决策,在打开豆包或DeepSeek之前,强制自己进行15分钟的裸脑思考。在向AI提问前,先在心中预设一个答案草稿。当你有了预期,你与AI的关系就从抄作业变成了对答案,这能极大提升你的批判性观察力。

方法二,增加认知摩擦

原理是模拟Halpern测评中的“主动构建”能力,强化长时记忆。读完AI给出的建议后,关掉屏幕,尝试用自己的语言向一个外行(或假想对象)解释清楚这个逻辑。如果你解释不出来,说明该知识并未进入你的大脑,只是停留在屏幕上。

方法三,构建底层知识硬核

每周挑选一个核心概念(如复利效应、幸存者偏差、博弈论),结合AI,进行手动的深度拆解。减少对“一分钟带你看懂XX”这类信息的消费,主动寻找那些让你感到烧脑的内容。因为,只有让你感到痛苦的知识消费过程,才更有可能是有效的认知健身。但这并不意味着,你一定要去读一本三四百页的书,其实你去观看一条半小时以上深度视频可能也有类似的效果。

方法四,强化元认知监控

面对AI给出的第一个答案,永远问一句:还有其他可能吗?或这个逻辑在什么极端情况下会失效?。尽可能多地参与线下讨论、即兴辩论和复杂的线下社交。这些场景瞬息万变,AI无法实时代劳,是锻炼大脑实时反应和综合评判能力的好场景。

正如举重能让肌肉强壮,思考的重负能让智力常青。在2026年,当满大街的人都穿着骆驼羽绒服、用着同样的Gemini、豆包、DeepSeek模型时,你大脑中那几条亲自打磨出来的神经通路,将是人类最昂贵的奢侈品,也是最后的护城河。

打开网易新闻 查看精彩图片

继续看