Claude Code用户累计敲了上亿行对话,Anthropic自己没动,被一个开源工具截胡了。
这个叫Overnight的CLI工具,核心玩法简单粗暴:扒光你的Claude Code聊天记录,训练出一套"你本人"的编码人格,然后在你睡觉时替你继续干活。不是通用AI代理那套模板,是你说话的方式、纠结的点、甚至骂脏话的习惯,全被它学去。
从聊天记录里长出来的"数字分身"
安装完Overnight,它第一件事是扫描你本地的Claude Code历史记录,路径通常是~/.claude/projects/。这里存着你跟Claude的每一次拉扯:怎么描述需求、怎么追问bug、怎么在"再试一次"和"算了重构吧"之间反复横跳。
工具作者把这些信息蒸馏成三类输入:你是谁(沟通风格+技术偏好)、你要去哪(当前任务方向)、现场有什么(代码库状态)。输出端则模拟"你下一秒会敲什么"——包括那种"这里加个try-catch吧"的微妙直觉。
预测器永远不会看到原始对话,只接触加工后的特征向量。
这种设计绕开了隐私雷区,也让个性化成为可能。通用大模型面对的是"一个程序员",Overnight面对的是"凌晨两点还在跟OAuth死磕的你"。
运行模式分四档:Ask(每一步问你)、Suggest(推荐你确认)、Auto(自主执行但可中断)、YOLO(彻底放手)。YOLO模式会创建overnight/{run-id}分支提交所有改动,早上醒来像审PR一样决定合并或丢弃。
夜间代理的反馈闭环长什么样
具体执行时,Overnight套在Claude Code外面当监督层。它不会替换Claude,而是预判你会给Claude发什么指令,然后代发。
一个典型夜间的流程:扫描未完成的测试文件→根据你的历史习惯推断"应该补边界情况"→生成提示词丢给Claude→拿到代码→跑测试→失败→根据你的debug风格决定是"print大法"还是"直接看源码"→循环直到通过或超时。
全部操作留痕。$ overnight log能回溯每一轮决策依据,方便你质问"为什么这里用了any而不是具体类型"——虽然答案可能是"因为你上周三也这么干的"。
需要自备API key,Anthropic或兼容OpenAI格式均可。目前代码托管在GitHub,克隆下来按README配置即可。
为什么偏偏是现在
代码代理不算新东西。Devin、GitHub Copilot Workspace、各种"AI程序员"都在抢这块地。Overnight的差异化在于:别人训练通用能力,它训练特定的人。
这个思路的漏洞很明显——如果你的历史记录本身就是一团糟,Overnight会完美复刻你的混乱。工具作者在文档里埋了句实话:"Garbage in, garbage out still applies."
但反过来,对于那些已经形成稳定工作流的开发者,这意味着代理能继承你的上下文积累。你知道那个老项目里"auth模块"特指2019年那套JWT实现,不是新同事以为的OAuth2.0——Overnight也能知道,因为它读过你跟Claude的十七轮扯皮。
更现实的瓶颈在成本。YOLO模式跑一晚上,API调用费可能吃掉几十美元。作者建议从Ask模式开始,确认行为符合预期再逐步放手。
GitHub仓库的issue区已经有人反馈:Overnight在某位用户的代码库里学会了"先写测试再实现"的习惯,在另一位那里则继承了"注释里写脏话发泄"的风格。这种不可控的个性化,是特性也是bug。
Anthropic官方对这类工具态度暧昧。Claude Code的聊天记录本地存储,理论上用户拥有完全处置权,但协议里没明确禁止第三方挖掘。Overnight的出现,相当于把"数据所有权"从法律文本拽进了技术现实。
下一步会是什么?如果Overnight证明这条路走得通,类似的工具可能涌向Cursor、Windsurf、甚至VS Code的Copilot聊天记录。每个程序员都将面对选择:让AI学习你的习惯变得不可替代,还是保持模糊以维持替换自由?
热门跟贴