当全网都在晒Claude Code的"隐藏技巧"时,真正值钱的东西反而没人注意——创始人Boris Cherny亲自下场发了一份配置清单。我按他的方法重设了一遍,发现之前80%的卡顿和无效等待都是自己造成的。

01 | 自动批准:把"安全模式"改成"信任模式"

打开网易新闻 查看精彩图片

Claude Code默认会在每个动作前暂停等你确认。文件编辑、终端命令、依赖安装、网络搜索——全部要手动点一遍。

这个设计很贴心,但Cherny的第一条建议就是:关掉它。

在设置里找到"Auto-approve",勾选所有你信任的类别。日常开发中,反复确认同一类操作纯粹是时间黑洞。Cherny的原话是,这"seriously slow you down"——严重拖慢节奏。

我的实测:一个中型项目的初始化配置,从47次手动确认降到3次关键决策点。省下的不是点击时间,是注意力碎片。

02 | 模型选择:别被"最强"两个字绑架

Anthropic刚推了Opus 4.7,全网都在测它的代码能力。但Cherny的配置里有个反直觉的细节:他不默认用Opus。

他的逻辑很简单——不同任务吃不同资源。简单重构、格式调整、注释补全,用轻量模型足够;只有架构设计、复杂调试、跨文件推理才值得调用Opus。

大多数人犯的错误是"能力焦虑":怕小模型搞不定,全程顶配运行。结果响应慢、成本高,体验反而更差。

Cherny的做法是显式切换。在对话开头告诉Claude"用轻量模式",需要深度时再喊"切Opus"。这种主动调度比自动判断更可控。

03 | 上下文窗口:把"无限记忆"当谎言听

Opus 4.7的上下文窗口确实变大了,但Cherny的第三条建议是给这个能力划边界。

他的具体操作:在复杂项目里,主动用/compact命令压缩对话历史。不是等系统提示窗口满了再处理,而是每隔10-15轮主动整理一次。

为什么?因为模型对早期信息的召回准确率会衰减。你以为它"记得"三小时前的架构决策,实际推理时可能已经权重降低。主动压缩是把关键结论固化成摘要,而非依赖模型的隐性记忆。

另一个细节:Cherny会在压缩前手动标注"保留这段"——用特定格式把核心约束条件框出来。这比指望模型自己判断什么是重点更可靠。

04 | 工具调用:关掉你用不上的那80%

Claude Code集成了大量工具:文件系统、终端、浏览器、代码搜索、LSP支持……默认全开。

Cherny的配置是大幅精简。他的原则是:当前任务需要什么,就只开什么。

纯前端调试?关掉后端相关的工具链。写Python脚本?暂时禁用Node生态的调用。这种"最小权限"不是为了安全,是为了减少模型的决策噪音。

我测试了一个具体场景:让Claude修复一个React组件的样式bug。全工具模式下,它调用了5次文件搜索、2次依赖检查、1次网络查询——全是多余的。精简配置后,直接定位问题文件,3轮对话解决。

模型不会替你判断"这个工具现在没必要"。你得帮它做减法。

05 | 终端集成:把Claude变成真正的Shell搭档

最后一条是Cherny最近才强调的:别只把Claude Code当聊天窗口用。

他的典型工作流是——在终端里用claude命令直接启动,让AI的当前工作目录和Shell环境完全同步。需要查日志?tail -f开着,Claude能实时读到。要跑测试?它知道你刚用的什么参数。

很多人习惯在IDE插件里用Claude,但Cherny认为终端集成才是"原生体验"。上下文共享、环境变量、历史命令——这些隐式信息对代码理解至关重要。

更进一步:他会在复杂操作前用claude --verbose启动,让每一步工具调用都可见。不是为了调试,是为了建立对模型行为的直觉。看多了,你就知道"它接下来可能要干嘛",提前干预或放行。

核心差异:从"用工具"到"调配置"

这五条建议的共同点是什么?都不是"怎么问问题更好"的提示工程技巧,而是对工具本身的底层设置。

普通用户拿到Claude Code,直接开干。Cherny作为创造者,第一件事是调参数、关确认、划边界、做减法。这种"配置优先"的思维,本质是承认一个事实:AI编码工具的效率天花板,不在模型能力,在人和工具的协作协议。

我重设后的直接感受:不是Claude变聪明了,是它变"听话"了——响应更快、动作更准、废话更少。这种体验提升,比等下一个模型版本实在得多。

现在打开你的Claude Code,花10分钟过一遍设置面板。把自动批准打开,把不用的工具关掉,把终端集成跑通。创始人已经告诉你怎么用了,剩下的只是执行。