一位写了23年代码的老工程师,最近把从业生涯里的观察摊开了——我们找了十年的替罪羊,现在换成AI了。
凌晨三点的经典剧本
生产环境崩了。Slack警报狂响,值班工程师从床上爬起来。排查到最后,有人弱弱说一句:「这段代码是从Stack Overflow抄的。」
这句话像咒语。责任瞬间转移。代码在网上别的地方跑得好好的,带绿色对勾,几百个赞,谁能想到在我们这儿会炸?
作者看了二十多年这出戏。初级开发者——其实不止初级——遇到问题,去Stack Overflow找答案,找个看着能跑的,粘贴,提交。不读上下文,不追逻辑,不考虑边界情况。问题消失就行。
绿色对勾成了新时代的权威认证。过时了?题目不太一样?忽略了你的系统配置?不重要。有赞,被采纳,就够了。
崩了之后呢?耸肩。「示例里明明能跑。」集体默认错在源头,不在抄的人。
新对勾,老毛病
现在主角换成了Codex、Claude、Copilot,或者这周 whichever AI 助手。套路没变,换个人背锅。
初级开发者把AI生成的代码贴进仓库。看起来靠谱,能编译,本地测试过了。语法干净,变量名合理,像懂行的人写的。她没细读,没追逻辑,没理解生成背后的假设,直接提交。
生产环境再崩——边界情况浮现,上下文变了,模型自信满满的建议在真实负载下露出微妙的错误——说法如出一辙:「模型幻觉了。」
同样的耸肩,同样的甩锅。我们换了一个外部权威,假装代码来源能替理解能力背锅。
作者点破:从Stack Overflow抄和从LLM抄,差距没人们吹的那么大。两者都需要理解。不懂自己在看什么的时候,两者都产出垃圾。
幻觉是个方便的词
「幻觉」成了技术免责金牌。模型说了,模型错了,不是我的问题。
但作者追问:真是模型的问题吗?还是用它的人根本没验证?
Stack Overflow时代,我们怪「网上代码不靠谱」。AI时代,我们怪「模型会瞎编」。中间那个关键环节——人有没有理解自己在做什么——始终被跳过。
绿色对勾和AI生成的流畅代码,都给了人一种虚假的安心感。看起来专业,读起来顺,就像是对的。这种「像」足够让很多人停止思考。
作者23年的观察里,真正出事的从来不是「用了外部资源」。是用了之后,假装自己已经懂了。
那什么变了?
速度。AI让复制粘贴的循环快了一个数量级。以前去Stack Overflow搜、读、挑、试,好歹有几分钟摩擦。现在Tab+Enter,代码直接出现在光标位置。
摩擦是思考的朋友。当获取答案的成本趋近于零,验证答案的意愿也跟着趋近于零。
作者没给解决方案。他说的是现象:我们花了十年训练自己把Stack Overflow当免责牌,现在牌面换成AI,打法更熟练了。
下一代开发者会怎么描述凌晨三点的崩溃?「AI给的」大概会和「Stack Overflow抄的」一样,成为会议室里的叹息词。
问题是,当两个来源都不在场的时候,谁该为理解代码负责?
热门跟贴