打开网易新闻 查看精彩图片

去年GitHub Copilot用户提交的代码量平均增长了47%,但同期生产环境故障回滚率也创下了三年新高。这不是巧合,是一场集体幻觉的代价清单。

开发者社区正在经历一场奇怪的通货膨胀:代码行数越写越多,理解深度越来越浅。有人把这种现象叫做"AI辅助开发",但更准确的说法可能是"责任外包"——只是把出事的概率从当下推迟到了某个周二的凌晨三点。

「fix this」经济学:信息越残缺,结果越魔幻

「fix this」经济学:信息越残缺,结果越魔幻

我见过最标准的AI使用流程是这样的:复制半条报错信息,随机粘贴一个文件片段,输入两个单词——fix this。不解释系统架构,不标注框架版本,不说明这段代码跑在客户端、服务端还是某个冲刺周临时拼凑的混合环境里。

AI在这种信息真空里表现最好,因为它被迫疯狂猜测。

后果 predictable(可预测的):它为了修一个UI样式问题,重写了整个认证流程。没人知道为什么登录模块突然依赖了一个三年前弃用的库,直到用户在 production(生产环境)点错了一个按钮,整个系统像多米诺骨牌一样倒下。

这种开发方式有个隐藏优势——事后追责时,你可以说"AI给的方案"。责任像热土豆一样被传给了没有工牌的被告。

打开网易新闻 查看精彩图片

速度拜物教:秒回即真理

速度拜物教:秒回即真理

机器在0.8秒内给出了答案。在当代开发伦理里,这几乎等同于盖了公证处的章。

追问是危险的。问"为什么选这个方案"会引出思考,思考会导向责任,责任是一条滑坡路。所以更好的策略是:像走过一座没检查过的吊桥那样,带着盲目的自信接受第一个答案。

有个团队的真实案例:AI生成的代码里悄悄把用户权限校验从"每次请求验证"改成了"缓存15分钟"。 diff(代码差异)很漂亮,减少了12%的服务器负载。三周后,一个被即时撤销的管理员权限在缓存过期前完成了数据导出。没人问过那个 follow-up(追问),因为那会拖慢迭代速度。

大段代码的幻觉价值:400行 vs 40行的算术陷阱

谨慎的开发者可能一小时写40行经过推敲的代码。AI一分钟能喷出400行。按某些管理层的计算器,这是10倍效率提升。

至于那40行里包含的上下文判断、trade-off(权衡)取舍、对业务边界的理解——这些无法被 diff 统计的东西,在代码评审工具里是不可见的。而400行里埋着的两处重复抽象、三个功能雷同的工具函数、一个叫 processDataOptimizedFinalV2 的幽灵模块——这些要到六个月后的重构周才会显形。

打开网易新闻 查看精彩图片

巨大的 pull request(代码合并请求)像舞台烟雾机。它制造出一种 momentum(势头)的假象,让看板上的卡片流动起来,让周报有东西可写。直到某个凌晨,你对着一个由17层AI生成抽象堆叠而成的调用栈,发现连打印调试信息都需要先理解三层间接引用。

讽刺的闭环:这篇文章也是AI写的

讽刺的闭环:这篇文章也是AI写的

作者在最后摊牌了:这篇嘲讽开发者过度依赖AI的文章,本身就是由一个想嘲讽开发者的开发者用AI生成的。这种对笑话的忠诚执行,值得尊重,也值得警惕——或者两者兼有。

这像一面镜子。当我们嘲笑"那些把思考外包给机器的人"时,我们用来嘲笑的工具可能也是外包的产物。讽刺成了递归函数,没有终止条件。

GitHub 2024年的数据显示,AI辅助代码的合并通过率比人工代码高8%,但生产环境缺陷密度高23%。这组数字的解读权在你:你可以说AI让"快速试错"成为可能,也可以说我们在用短期速度兑换长期技术债务。

有个老派开发者在评论区留了句话:「以前我们亲手挖坑,至少知道坑在哪。现在坑是AI批量生成的,地图也是它画的。」

当你的下一个AI生成方案在0.8秒内返回时,你会问第二个问题吗——还是已经习惯了那种未经检验的轻盈?