你有没有发现,用AI写代码越久,遇到bug时反而越懵?
这不是错觉。一位从应届生做到资深工程师的开发者,用5年时间验证了一个反直觉的结论:代码写得越多,成长越慢;真正让你变强的,是写完之后的那几分钟思考。
他把这套方法整理成了15个2-5分钟就能完成的练习。核心就一句话——别让AI替你思考,要让它帮你思考得更好。
一图读懂:AI时代工程师的"防笨指南"
这份指南的结构很简单:一张自我评估清单,三个层面的防护机制。
我们先看最核心的那张图——快速自测表。它只有6个勾选框,但每个都是红灯预警:
□ 还没自己动脑想,就先把问题丢给AI
□ AI生成的代码看都不看,直接粘贴
□ 遇到报错第一反应是"再生成一次",而不是自己读错误信息
□ 解释代码时只能说"AI这么写的",讲不清原理
□ 离开AI辅助后,写同样功能的代码明显变慢或卡壳
□ 代码能跑,但不知道为什么能跑
勾中3条以上,说明AI正在悄悄接管你的认知过程。这不是道德批判,是《今日心理学》报道的一项实验结论:重度依赖AI辅助的学习者,新技能形成数量"大幅减少"(considerably reduces)。研究者建议,先建立独立熟练度,再引入AI支持。
但完全不用AI?那是因噎废食。关键在于区分两种模式:认知卸载(cognitive offloading)和认知增强。
第一层:执行前的"强制停顿"
指南里最狠的一招叫"5分钟规则":打开AI之前,先用纸笔或空白文档写下你对问题的理解。
不需要完整方案。三句话就够:我要解决什么?我目前知道什么?我最不确定哪部分?
这个动作的价值不在答案,而在暴露思维盲区。很多人发现,自己还没想清楚问题边界,就已经在调AI的提示词了。就像拿着地图软件却连目的地都没输,走得再快也是绕圈。
更隐蔽的风险是"伪理解"。AI生成的代码往往结构完整、命名规范,看起来"很对"。但这种表面正确性会欺骗你的元认知——你误以为自己懂了,实际上只是识别了模式。
指南建议的检验方法:遮住AI的解答,用自己的话向假想的同事解释方案。卡壳的地方,就是真漏洞。
第二层:执行中的"交互纪律"
不是不能用AI生成代码,但要建立反馈闭环。指南提供了几个具体技巧:
技巧一:要求AI分步解释。不要直接要答案,而是问"解决这个问题需要哪几步,每步的关键判断是什么"。这强迫你自己先构建框架,再用AI填充细节。
技巧二:主动引入错误。让AI生成代码后,故意问"如果XX条件不满足,这段代码会怎么失败"。测试你对边界情况的理解,比测试代码本身更重要。
技巧三:版本对比。同一问题用不同提示词问两次,对比两个答案的差异。为什么这里用循环,那里用递归?AI的选择依据是什么?这种比较训练的是工程判断力——知道什么时候该用什么。
技巧四:限速阅读。AI输出再快,你也要给自己设个硬门槛:每100行代码至少停留10分钟。不是逐行注释,而是画出数据流图,标出状态变化点。
这些练习的共同点是:把AI的输出当成材料,而不是成品。就像厨师不会直接把供应商的半成品端上桌,工程师也不能把AI代码直接合入主干。
第三层:执行后的"结构化复盘"
这是指南最重的部分,也是作者5年跃迁的真正秘诀。15个练习里,有9个集中在事后反思。
核心工具叫"调试信号日志"。每次解决一个bug,记录三个问题:最初的症状是什么?哪个线索让我定位到根因?如果重来,我能否更快发现?
听起来很朴素?但作者发现,大多数工程师的调试是随机游走——试这个,试那个,突然好了。好了之后呢?庆祝,合并,下一个任务。信号和噪声混成一团,下次遇到同类问题从零开始。
日志的作用是提取模式。连续记录10次后,你会发现自己的"盲区分布":是不是总在异步问题上栽跟头?是不是每次看到空指针就慌?这些模式AI不会告诉你,因为它只参与单次交互。
另一个工具是"设计决策卡片"。完成一个功能后,用索引卡大小(手机备忘录也行)记录:我放弃了什么选择?代价是什么?如果需求翻倍,这个方案还成立吗?
这些卡片积累起来,就是你的"技术直觉"数据库。面试时被问"这个设计怎么扩展",别人在现编,你在调取历史决策。
为什么这套方法特别针对AI时代?
传统编程也有反思,但AI加速了一个危险趋势:执行和思考的时间比例严重失衡。
以前写200行代码可能需要2小时,其中1小时在查文档、试方案、踩坑。这些"低效"时间其实是思考时间——你在构建心智模型。现在AI 30秒生成200行,你的手指没停,但脑子停了。
更麻烦的是,AI的错误往往"看起来对"。语法正确、结构合理,甚至能跑通测试,但隐藏了边界条件漏洞或性能陷阱。没有深度思考,你识别不出这些"优雅的错"。
指南作者提到一个细节:他会在AI生成代码后,故意问"这段代码的最坏情况时间复杂度是多少"。不是为了考AI,是为了强迫自己从正确性验证切换到效率评估——这个视角切换,很多人已经不会做了。
怎么开始?从"一个练习"到"系统习惯"
指南的设计很务实:15个练习,每个2-5分钟,不需要全部做。作者建议从"调试信号日志"开始,连续记录一周,再叠加其他。
关键不是反思的时长,而是反思的触发条件。指南提供了几个锚点:
- 每次提交代码前(git commit之前)
- 每次关闭AI标签页后
- 每次解决一个"终于好了"的bug后
- 每周五下午(回顾本周的三个关键决策)
这些锚点把反思嵌入工作流,而不是额外任务。作者自己的习惯是:AI生成代码后,先最小化窗口,在白板上画流程图,再对照AI的代码检查自己的理解偏差。
这个动作多花了3分钟,但避免了"我以为我懂了"的隐性债务。长期来看,这是复利最高的时间投资。
实用指向:今天就能试的三件事
第一,下次打开ChatGPT或Copilot之前,设个手机倒计时5分钟。倒计时结束前,不准粘贴任何内容。这5分钟里,写下你对问题的理解,以及你打算怎么验证AI的答案。这个简单的摩擦,能过滤掉80%的"懒问题"。
第二,选一段上周写的AI辅助代码,现在遮住原文件,手写伪代码重构。如果写不出来,说明当时的"懂"是幻觉。把卡壳的点记下来,这就是你真正的学习清单。
第三,在笔记软件里建一个"AI决策日志"模板,每次重大功能完成后填三行:我让AI做了什么?我检查了什么?我漏掉了什么?坚持一个月,你会看到自己的盲区地图。
AI不会取代工程师,但用AI的方式会分化工程师。有人把它当成外接大脑,认知能力持续萎缩;有人把它当成思维健身器材,判断力越练越准。这份指南的价值,在于提供了后者的具体训练方案——不是道德说教,是可操作的动作集合。
代码生成速度的革命已经发生了。思考速度的革命,才刚刚开始。
热门跟贴