GitHub Copilot月活突破1500万,Cursor估值冲到90亿美元,Anthropic的Claude Code刚发布就被挤爆服务器。但作者花了4周时间,每天用这些工具做生产级项目后,得出一个反直觉的结论:大多数工程师正在把AI工具当成高级版搜索引擎来用,而真正的价值完全被浪费了。
一个产品经理的"入坑"实验
作者的身份很有意思——产品经理出身,现在做技术内容。他没选那种"让AI写个贪吃蛇"的玩具项目,而是直接上了真家伙:用Claude Code重构遗留代码库,用Cursor处理跨文件依赖,用Codex CLI做自动化测试。
第一周的痛苦很典型。他像大多数人一样,输入模糊的需求,得到看似合理但处处埋雷的代码,然后陷入"提示词→复制→调试→再提示"的死循环。效率不升反降,甚至开始怀疑这些工具是不是被高估了。
转折点出现在第二周。他意识到问题不在AI,而在自己的使用方式——他在用对待ChatGPT的心态对待专业开发工具,就像用Excel的思路去写Python。
框架思维:从"提问"到"编排"
作者提出的核心类比是:AI工具是新的框架,不是新的搜索引擎。
这个区别很微妙,但决定了成败。搜索引擎是单次交互:输入关键词,获取答案,关系结束。框架则是持续协作:你需要理解它的设计哲学、掌握它的抽象层次、学会在正确的地方插入自定义逻辑。
以Claude Code为例。它的真正威力不在自然语言对话,而在工具调用(Tool Use)机制——AI可以自主执行终端命令、读写文件、运行测试,并根据结果自我修正。这意味着工作流从"人写代码→AI辅助"变成了"人定义目标→AI执行循环→人做关键决策"。
作者举了个具体场景:重构一个2000行的JavaScript文件。旧做法是复制进去让AI重写,结果变量命名混乱、依赖断裂。新做法是先用Claude Code的`/terminal`命令跑静态分析,让AI自己发现循环依赖,然后分阶段重构——先抽离纯函数,再处理副作用,最后统一接口。
整个过程他写的代码不到50行,但输出的架构比手工重构更干净。
Cursor的"上下文战争"
Cursor的差异化在于上下文管理。它的Composer功能允许AI同时查看多个文件,理解跨模块的调用关系——这听起来像基础功能,但实现难度极高。
作者测试了一个真实案例:在React项目中把Class组件迁移到Hooks。传统AI工具会生成独立的Hooks代码,但Cursor能追踪到该组件被7个父组件引用、依赖3个高阶组件、内部混用了两个生命周期方法。迁移方案自动包含了父组件的props调整、HOC的兼容性处理、以及一个渐进式迁移的TODO清单。
这种能力的代价是学习曲线。作者花了整整两天研究Cursor的`.cursorrules`文件配置,才明白如何让AI优先读取项目文档而非训练数据。但一旦配置完成,后续项目的启动成本趋近于零。
被忽视的"最后一公里"
文章最尖锐的观察是关于测试的。大多数工程师用AI写代码,但不用AI写测试——这相当于买了跑车只开经济模式。
作者用Codex CLI做了一个实验:让AI为现有功能生成测试,但附加一个约束——测试必须失败,直到实现被修正。这个"测试先行"的逆向操作,逼出了AI对边界条件的理解深度。结果生成的测试用例覆盖了作者自己都没考虑到的3个竞态条件。
更意外的是文档生成。他把Claude Code接入CI流程,每次PR自动输出变更摘要和迁移指南。以前需要专人维护的文档,现在成了副作用。
行业正在分层
作者的最后观察关于人才市场。他注意到一个分化:同一批工具,在熟练者手中产出提升300%,在新手手中反而拖慢进度。这不是工具的问题,是"框架素养"的差距。
传统框架(React、Django、Spring)花了十年建立教育体系——教程、最佳实践、认证体系。AI工具没有这些,导致大多数人停留在"能跑就行"的表层。作者预测未来两年会出现"AI原生工程师"这个新标签,不是指会用AI的人,而是指能像设计系统一样设计AI协作流程的人。
他举了个招聘市场的信号:已经开始有公司在JD里要求"熟练使用Claude Code/Cursor进行大型代码库重构",并开出比传统全栈高30%的薪资。这不是炒作,是早期市场定价。
文章结尾,作者放了一个自己的使用数据:4周内,他交付了相当于以往8周的工作量,但代码提交频率下降了40%——因为单次变更的体积变大了,从"修bug"变成了"重构模块"。
这个数据引出一个他没回答的问题:当AI工具把"写代码"变成"审代码",代码审查的标准该怎么变?
热门跟贴