GitHub Copilot每月10美元,200万开发者买单。Anthropic的Claude Code免费公测,有人动了真格——不是叠加使用,是彻底替换。两周后,他的代码库还站着吗?
第一周:蜜月期的幻觉
作者是个老实人。Python 3.12后端(Django REST)、React/TypeScript前端、1.5万行代码的中型项目,每天6小时纯编码。他卸载了Copilot插件,装上Claude Code的CLI和VSCode集成,把GitHub的自动补全彻底断供。
前48小时,惊喜来得很快。Copilot有个老毛病:20%的建议是"差不多对",比如正则表达式写到80%突然跑偏,你得手动修。Claude Code的第一周,这种"接近但错误"的瞬间明显变少。
一个具体案例:解析JSON并处理异常。Copilot给出的是裸try-except,捕获所有异常、静默失败——生产环境的噩梦。Claude Code的建议是分层处理:json.JSONDecodeError单独记日志,Unexpected Error再抛出。作者估算,Claude Code的建议"拿来即用"比例约85%,Copilot大概70%。
更隐蔽的优势是上下文记忆。作者的项目有套命名规矩:fetch_开头表异步,get_表同步。Copilot经常忘,Claude Code却像读过整个代码库。它记得错误处理风格、记得你在用哪个库、记得上周写的工具函数位置。
但第一周没暴露真相。新工具的光环效应下,人会自动迁就。
第二周:摩擦成本浮现
裂痕从延迟开始。Claude Code的响应比Copilot慢,不是网速那种慢,是"模型在思考"的慢。写三行代码等半秒建议,累积到8小时工作日,像穿湿袜子走路——能走,但每一步都不爽。
作者做了件狠事:计时。同样功能的端点开发,Claude Code平均多花12-15%时间。不是建议质量差,是交互节奏被打断。Copilot的预测像呼吸,Claude Code像等邮件。
更麻烦的是"过度帮助"。Claude Code倾向于给完整实现,哪怕你只需要补个参数。Copilot更懂"点到为止",你写一半它猜一半,默契像老搭档。Claude Code偶尔像在面试——展示它懂多少,而非你需要多少。
还有一个边缘场景:离线或弱网环境。Copilot的本地缓存能撑一阵,Claude Code的云端依赖更脆弱。作者没遇到断网,但注意到网络波动时建议质量跳水。
两周后的真实账单
作者没回去,也没彻底留下。他的现状是混合栈:Claude Code处理复杂逻辑、需要理解上下文的任务;Copilot回归日常补全、快速脚手架。每月10美元照付,但使用时长砍半。
这个决策背后有个冷数据:Claude Code在"需要动脑"的代码上省时间,Copilot在"肌肉记忆"的代码上省时间。作者的项目里,前者约占30%,后者70%。
但Anthropic的牌还没打完。Claude Code的agent模式(让AI直接执行终端命令、读写文件)作者没深度测试,那是另一个物种的体验。如果agent能接管调试、重构、写测试的完整闭环,延迟的代价可能被批量操作抵消。
GitHub也没闲着。Copilot Workspace正在内测,同样瞄准"不止于补全"的场景。两家都在赌同一个未来:开发者要的不是更快的打字,是更少的心智负担。
作者最后提了个开放问题:如果Claude Code的延迟降到Copilot级别,且保持现有准确率,你会为免费放弃付费习惯吗?还是说,10美元买的是"不用选择"的惰性?
他的答案藏在行为里——账单照付,但打开Copilot的频率,已经不如从前。
热门跟贴