你有没有发现,用AI写代码越久,自己反而越"笨"了?
这不是错觉。一位5年从应届生升到高级工程师的工程师,最近把自己的反思系统整理成了指南。他说得很直白:执行变容易了,思考却在悄悄减少。
那个被跳过的"挣扎时刻"
以前写代码,你得死磕。调试、翻文档、试各种方案——这个过程很痛苦,但也很值钱。
现在呢?Copilot、Cursor、Claude几秒钟给你一堆代码。功能跑通了,但那个逼你深度思考的时刻,被压缩甚至跳过了。
Psychology Today最近报道了一项实验学习研究,标题就叫《认知卸载:使用AI会减少新技能形成》。研究发现,重度依赖AI辅助的学习者,形成的新技能明显少于独立完成任务的人。
研究作者的结论很具体:如果目标是学习,把关键步骤交给AI会"显著降低"技能形成速度。他们建议,先建立独立熟练的基础,再引入AI支持。
注意,不是让你不用AI。是用AI的方式,决定了你是在强化思考,还是在替代思考。
一个工程师的5年反思实验
这位作者的经历挺典型。应届生入行,5年做到高级工程师,同时还在做自己的项目。
他总结了一个反常识的发现:
成长不是来自写更多代码,而是来自反思写过的代码。
调试完一个问题,是什么信号让他找到根因?设计完一个系统,做了哪些取舍?用了AI之后,真的理解生成的内容吗?
这些反思一开始只是零散习惯,后来慢慢结构化,最终变成了一份实操指南:《AI时代的思考》。
指南的核心设计很务实:不是让你读一遍就忘,而是在工作流的小间隙里用起来。大部分练习2-5分钟,总共15个工具,挑一个坚持用就行。
目标不是反思更多,而是反思得更 deliberate(刻意、有目的)。
一个自测:AI在强化你,还是在替代你?
指南里有一个快速自评工具,作者直接公开了全文。我们逐条拆解一下:
第一部分:快速自我评估
以下情况,如果频繁发生就勾选:
☐ 还没自己思考,就直接问AI
☐ 粘贴AI生成的代码,没完整读过
☐ 看不懂AI的输出,但直接用了
☐ 遇到错误,第一反应是让AI修复,而不是自己分析
☐ 说"AI这么写的"来解释代码逻辑
☐ 感觉自己在管理AI,而不是在写代码
☐ 关掉AI辅助后,写代码明显变慢或变难
勾选越多,说明认知卸载越严重。作者的建议是:选1-2个最想改的,针对性练习。
第二部分:深度反思问题
如果勾选了多个,接着问自己:
最近一次完全独立解决的技术问题是什么?不用AI的话,我还能做出来吗?
我现在的"理解"里,有多少是真正内化的,有多少只是知道AI能帮我查?
如果AI工具明天消失,我的核心能力还剩多少?
这些问题没有标准答案,但逼你面对一个事实:速度和深度是两条线,可以都走,也可以只走一条。
15个工具的核心逻辑
指南的15个练习分成几类,我们挑有代表性的说。
第一类:使用前的"强制停顿"
比如"5分钟规则"——遇到问题,先自己思考5分钟,再打开AI。这5分钟里,写下已知信息、尝试过的方向、卡在哪里。不是为了解决问题,是为了激活大脑。
作者说,很多时候5分钟后你会发现,问题没想象中复杂,或者至少能问出更精准的问题。
第二类:使用中的"理解验证"
AI给出代码后,强制做三件事:逐行阅读、用自己的话解释逻辑、标记不确定的部分。如果解释不清楚,就是理解缺口。
还有一个技巧叫"反向教学"——假设要向同事解释这段代码,哪些部分会卡壳?那些就是需要深挖的地方。
第三类:使用后的"复盘提取"
每个用AI完成的功能,记录三个东西:AI提供的核心思路是什么?我自己原本会怎么设计?哪个更好,为什么?
长期积累,你会形成自己的"决策模式库",而不是只有"AI说这样好"。
为什么这件事值得工程师现在就想清楚
行业变化的速度在加快。GitHub Copilot发布才3年,Cursor、Windsurf、Devin这些工具已经迭代了好几轮。模型能力每几个月跳一档,今天的高效工作流,明年可能就过时。
但有一件事不变:判断力和直觉,只能靠自己练出来。
作者说得很实在——AI可以帮你写代码,但不能帮你决定"这个架构3年后会不会变成坑"。这种决策质量,取决于你经历过多少挣扎、反思过多少取舍。
如果现在的习惯是跳过思考、直接执行,3年后你可能是个很快的"AI操作员",但很难成为能独立做技术决策的人。
这份指南的价值,在于它不提供抽象道理,而是给了一套可嵌入工作流的微习惯。2-5分钟一个,选一个开始用,比读完15个然后忘掉强。
具体建议:明天开始,试试那个"5分钟规则"。遇到问题,设个计时器,先写几行自己的思路,再打开AI。感受下区别——不是速度的区别,是脑子参与度的区别。
热门跟贴