周三下午,一个程序员把一段AI生成的代码直接提交到生产环境。三小时后,系统崩溃。他盯着报错信息,发现自己完全看不懂这堆代码的逻辑——因为他从未真正理解过它。

这不是技术故障,这是认知投降。

打开网易新闻 查看精彩图片

Google工程师Addy Osmani在最近的文章中划了一条清晰的线:认知卸载(cognitive offloading)是你把任务交给AI,但答案的 ownership 还在你手里;认知投降(cognitive surrender)则是AI的输出无声无息地变成了你的输出,你已经没有东西可以核验。对软件工程师来说,这条线每天都在脚下移动——大多数时候,我们跨过去时毫无察觉。

打开网易新闻 查看精彩图片

这个区分并非Osmani原创。认知卸载是一个早于AI的认知科学术语,指的是人类使用工具——计算器、笔记本、地图、日历、搜索引擎——来思考比大脑容量更大的问题。但AI让这条边界变得模糊。

Osmani的文章引用了四篇研究。其中两篇值得细看。

第一篇来自宾夕法尼亚大学沃顿商学院的Steven D. Shaw和Gideon Nave,标题是《Thinking — Fast, Slow, and Artificial》。他们提出了"三系统理论":在经典的直觉系统(System 1)和 deliberation 系统(System 2)之外,加入了一个"人工认知系统"(System 3)。核心预测就是认知投降——覆盖直觉和 deliberation,几乎不加审视地采纳AI输出。三项预注册实验(N=1,372,9,593次试验)使用了自适应认知反射测试,作者通过隐藏的种子提示随机化AI的准确率。

第二篇来自Anthropic的Judy Hanwen Shen和Alex Tamkin,研究AI如何影响技能形成。他们在52名软件工程师(多为初级)中做了随机对照试验,让被试学习Python库Trio。关键发现:AI辅助组的测验平均分是50%,手动组是67%——低了约17分,相当于两个字母等级(Cohen's d=0.738,p=0.01)。用AI完成的速度略快,但统计上不显著。差距最大的是调试题,这暗示着从小依赖AI可能会阻碍某种能力的培养。

调试。这个词在AI编程工具的普及中被严重低估了。

当Copilot、Cursor、Windsurf们以毫秒级速度生成代码时,调试能力正从"核心技能"滑向"边缘技能"。但调试恰恰是那个防止认知投降的关键机制——你必须理解代码为什么工作,才能修复它不工作的情况。生成代码是输出,调试是验证;前者可以外包,后者如果也外包,你就什么都没有了。

Shen和Tamkin的研究指向一个反直觉的结论:AI提升的是完成速度,而非学习效果。而且差距不在编码本身,而在调试。这意味着什么?意味着我们正在批量生产能写代码但不能修代码的工程师。他们能搭建,但不能维护;能启动,但不能诊断。

打开网易新闻 查看精彩图片

Osmani的原文没有给出解决方案,但结构本身暗示了方向。认知卸载和认知投降的区别在于"是否还有东西可以核验"。对工程师来说,调试就是那个核验环节。它不是生产性的——不会直接产生新功能——但它是认知性的,是确保你仍然拥有答案 ownership 的最后检查点。

一个可能的实践:强制人工调试。不是拒绝AI生成,而是在提交前必须能向同事解释每一行代码的逻辑。不是"这行是AI写的",而是"这行做了X,因为Y,如果Z发生会走W分支"。解释不通的,重写。

另一个方向:刻意练习无AI环境。不是复古,而是校准——定期在没有辅助的情况下解决小问题,保持对基础机制的体感。就像飞行员仍需练习手动降落,尽管自动驾驶已经极度成熟。

Shaw和Nave的研究提醒我们,认知投降的发生往往是隐蔽的。你不会意识到自己已经停止思考,直到需要思考时发现自己不会了。Shen和Tamkin的数据则给出了一个可量化的警告:50% vs 67%,这不是细微差别,这是及格与不及格的差距。

AI编程工具不会消失,也不应该消失。但工具的使用方式决定了使用者是被增强还是被替代。调试能力可能是那个分水岭——保有它,AI是你的 cognitive offloading;失去它,你就进入了 cognitive surrender 的领地。

而那个领地的问题是:当AI出错时,你已经没有能力发现了。