你有多久没审视过自己的AI使用习惯了?上周我翻遍了近两年的Claude Code记录,发现了一个尴尬的事实:我反复在做的某些事,系统根本不知道。

1870个JSONL文件,904MB数据,45个项目目录。这是我过去一段时间与AI协作留下的全部痕迹。最初只是想回答一个简单问题——"看看这些数据,推荐些新技能"——但手动扒完一遍后,我意识到这事根本没法常做。太耗时,太琐碎,太依赖记忆。

打开网易新闻 查看精彩图片

于是那个凌晨两点,我决定把它变成管道。

从一次性分析到可复用系统

数据清洗是第一道坎。1870个文件里,真正的用户输入只有2752条——大量是系统日志、自动补全、空响应。我需要过滤出"人话",也就是我亲手敲进去的提示词。

接下来是对照现有技能库:9个用户自定义技能,47个插件技能,总共56个。每条有效提示都要过一遍匹配检查,找出系统还没覆盖的重复模式。

排名逻辑用Python写的,核心很简单:算频率,算相关性,取前12。第一轮跑出12个候选,6个直接上线。三个典型例子:

narrative-docs-update:文档级写作标准,30个项目里出现147次
whats-next:会话重启时的状态简报,62次以上
• 另外四个针对特定重复任务

整个管道跑在我自己的服务器上,Node.js负责文件解析,Python做排名,输出直接写成可加载的配置。本地计算,成本可控。

那些没写在代码里的妥协

第一版漏了东西。有些提示因为格式不统一,被当成噪音过滤掉了。我凌晨两点爬起来改过滤逻辑,手动把边缘案例捞回来。

另一个限制更根本:这是批处理,不是实时流。数据是静态快照,想持续更新得等v2。目前它和Nexus、ARIA绑在一起,下一步是接进Nexus做连续更新。

这件事的真正价值

不是那6个新技能。是把"手动苦力活"变成"跑一次脚本"。

做AI工具的应该都有同感:某种分析你做了十遍,第十一遍才想起来该自动化。我这次省下的时间是按"每次会话"算的,项目越多,边际成本越趋近于零。

你现在在重复做什么?有没有已经值得管道化的事?