一位嵌入式工程师的私信把我问住了:「老板觉得AI两年内能替代所有人,已经在停招了。我该跑路吗?」
发信人跟了我很久,从职场新人熬成技术骨干。现在他的雇主正在用「AI替代论」压缩团队,而他手里攥着房贷和两个孩子。
这不是个例。2025年开年,我同时收到7条类似咨询——都来自被「AI恐慌」波及的中层工程师。有人被降薪转岗,有人团队解散,更多人活在「明天会不会轮到我」的焦虑里。
我的回复很直接:用AI的人不会失业,但迷信AI会替你思考的人,正在亲手埋雷。
「替代论」背后的数据幻觉
先拆穿一个流行叙事。麦肯锡2023年那份「AI替代4亿岗位」的报告,被无数老板转发到工作群。但很少有人追问:替代的是什么岗位?以什么标准?
真实的研究数据要微妙得多。GitHub Copilot的追踪研究显示,使用AI辅助的开发者任务完成速度提升55%——但代码缺陷率同期上升41%。斯坦福人机交互实验室的论文更扎心:在复杂系统调试场景,AI辅助组的平均耗时比纯人工组多23%,因为「修复AI制造的幻觉问题」成了新负担。
我手头有个更鲜活的案例。某车企嵌入式团队去年引入AI编码工具,三个月后复盘:基础驱动代码产出确实快了,但集成测试阶段的崩溃次数翻了三倍。最后算总账——项目延期11天,返工成本吃掉所谓「效率红利」的170%。
「AI替代工程师」是个伪命题。真正发生的是工作内容的剧烈重组:写样板代码的时间少了,但审阅、验证、背锅的时间多了。
我在三个场景里测试了AI的边界
作为同时混工程、研究和教育三界的人,2025年我被迫成了「AI工具人」——不是被AI替代,而是替AI擦屁股。
我的日常使用分三类,每条都有血淋淋的教训。
第一类:绝对不碰的红线。机密信息、敏感数据、个人隐私——这些从未进过任何LLM(大语言模型)的输入框。我见过太多「把客户数据库结构贴给ChatGPT优化」的作死案例,也见过工程师因此被起诉违反保密协议。
第二类:谨慎使用的辅助编码。我主用Claude配合Copilot,但有个铁律:每一行AI生成的代码,必须能向同事解释清楚逻辑。去年有个深夜,AI给我生成了一段看似完美的中断处理例程,直到我逐行审查才发现——它把两个硬件寄存器的访问顺序搞反了,在特定时序下会直接锁死芯片。
「AI不会替你坐牢。」这是我给团队的原话。
第三类:真正省力的文档工作。接口描述、注释补全、格式整理——这些AI确实能干到80分。但即便如此,我仍要人工核对技术术语的准确性。有回AI把「看门狗定时器」翻译成「dog watcher」,差点让英文文档变成行业笑话。
教育战场正在发生的荒诞剧
比工程实践更混乱的是教育领域。我同时在大学教嵌入式系统,2025年的阅卷经历堪称魔幻。
上学期期末,我收到一份「完美」的RTOS调度算法作业——代码规范、注释齐全、边界条件处理到位。直到我在答辩环节问「为什么这里选择优先级继承而非天花板协议」,学生眼神开始飘。
追问三轮,真相浮出水面:AI写了全部代码,学生只负责点击「生成」和「提交」。他背不出自己「作品」里的核心设计决策,就像房东说不清自家房子的承重结构。
这迫使我彻底改革评估方式。现在的期末考分两部分:纸上手写核心算法(禁止任何电子设备),+ 现场答辩 defend your code(为你的代码辩护)。学生需要解释每一个设计选择,追溯每一条参考来源,承担和职场同等的责任压力。
有学生抱怨「开倒车」。我回得干脆:未来职场不会给你配一个替你思考的AI保姆,只会给你配一个等你签字背锅的AI工具。
「学会学习」成了最硬的技能
回到开头那位工程师的困境。他的老板犯了一个经典错误:把「AI能生成代码」等同于「AI能替代工程师」。
这中间的认知鸿沟,相当于认为「有了自动档就不需要考驾照」。真正的驾驶能力不是换挡动作,而是路况判断、风险预判、应急处置——这些在代码世界里,对应系统架构思维、边界条件意识、故障追溯能力。
我观察到的残酷分化正在发生。同一批引入AI工具的团队,半年后呈现两极:一类人把AI当高级搜索引擎,效率提升但能力停滞;另一类人把AI当「杠精陪练」——故意质疑生成结果,逼自己深挖底层原理,反而成长更快。
关键变量不是用不用AI,而是有没有保持「元认知」的习惯:我知道AI可能错在哪里,我知道如何验证它的输出,我知道最终责任在我。
那位私信我的工程师,最后没选择跑路。他做了三件事:把团队代码审查流程强制化,推动建立AI使用审计日志,给自己报了门形式化验证的进阶课。
三个月后他告诉我,老板的态度变了——不是因为他「证明AI不行」,而是他成了全公司唯一能讲清楚「为什么AI在这个项目里会失效」的人。
热门跟贴