「第 50 次点击'允许'的时候,我的'是'已经没意义了。」

这是开发者 Simon 在博客里的原话。他每天用 Claude Code 和 Codex CLI,权限提示弹得越频繁,人越麻木——而直接关掉所有提示又太危险,毕竟 AI 可能删库、连外网、乱推分支。

打开网易新闻 查看精彩图片

他需要的不是更少提示,而是更聪明的提示

Simon 发现,判断「这事能不能做」其实有固定标准。麻烦的不是规则复杂,而是让疲惫的人类重复执行 100 次。

于是他写了个叫 ccgate 的工具:把权限决策外包给另一个 AI(Claude Haiku),按配置文件里的规则自动处理。危险操作拦下,灰色地带丢回给人,常规操作直接放行。

据他自己统计,自动化率约 97%。

为什么选 Haiku 而不是更强的模型?

成本。权限判断是个高频、低复杂度的任务,用 Sonnet 或 Opus 太浪费。Haiku 够快、够便宜,规则写清楚就能胜任。

这也暴露了一个被忽视的需求:AI 工作流里,「决策」本身可以分层。不是所有判断都需要最强脑力,关键是把决策权分配到对的层级。

这指向一个更大的趋势

AI 编程工具正在从「助手」变成「代理」——能自己调用工具、执行多步任务。但代理越自主,权限边界越模糊。

Simon 的方案不是堵死权限,而是把「谁来判断」也自动化了。这相当于在人和 AI 之间再加一层 AI,用更廉价的推理成本过滤噪音。

类似的逻辑可能蔓延:代码审查、测试用例生成、文档更新……任何高频、规则相对明确的决策,都可能被「代理的代理」接管。

试试这个思路

如果你也在用 Claude Code 或 Cursor 这类工具,可以检视一下:今天点了多少次「允许」?哪些判断其实有固定模式?

Simon 的开源方案是个起点,但更重要的是意识到——人机协作的瓶颈,有时候可以通过「再叠一层 AI」来解,而不是让人硬扛。