读到"特里芬难题"时,作者停住了——开新标签查定义,回来找不到刚才读哪行;硬撑读下去,整篇文章都建立在沙堆上。这种撕裂感,每个啃过长文的人都懂。

影子里的工具

打开网易新闻 查看精彩图片

Robert Nowell 没选那两条路。他写了个 Chrome 插件,叫 rabbitholes。

选中生词,解释直接浮现在光标旁边。不是弹窗,不是侧边栏,是一个用影子文档对象模型(Shadow DOM)渲染的提示框——宿主页面的样式进不来,它的样式也出不去,像给浏览器装了个单向玻璃舱。

解释来自 Anthropic 的 Claude Haiku 4.5,几秒返回。但作者说,他真正高频使用的功能是:解释里的每个词都能再选中。

"特里芬难题"提到"布雷顿森林体系",没搞懂?拖选,再往下钻一层。插件记着"跳跃深度",有个计数器告诉你离原文多远了。关掉提示框,光标还在老位置,阅读线程没断。

每段解释底部塞两个推荐主题,是模型从上下文里挑出的"值得扯的线头"。点一下就续上。还有个地球图标,把问题丢给 Brave 搜索,带来源芯片,方便核实。

没有中间服务器。浏览器直联 api.anthropic.com,零遥测,Manifest V3 架构,密钥存在 chrome.storage.sync 里。作者贴了一行关键代码:

「const shadow = container.attachShadow({ mode: 'closed' });」

closed 模式是命门——彻底隔离,互不污染。

递归阅读的生意

这个设计戳中了一个被忽视的痛点:知识获取的连续性溢价。

传统方案是超链接。但超链接是"跳转承诺",点击前你不知道要付多少时间成本。rabbitholes 把它改成"预览承诺",先给摘要,再决定要不要深潜。深度用计数器可视化,把无形的认知负担变成有形的游戏化反馈。

更隐蔽的洞察在"推荐主题"。Claude 不只是在回答问题,它在预测你的下一个困惑点——把单点查询串成链式探索。这是搜索引擎没动力做的(它们希望你多点广告),也是维基百科做不了的(它没有你的阅读上下文)。

模板功能(Templates)是另一个信号。FAQ 快速回复、代码片段复用——作者自己也在用这工具处理重复劳动。插件的定位在模糊:既是阅读辅助,又是轻量知识库。

边缘与中心

rabbitholes 选了一条刻意边缘的技术路线。

Shadow DOM 的 closed 模式在扩展开发里不算主流,调试麻烦,灵活性差。但作者要的是"绝对不破坏宿主页面"——这对阅读场景是硬需求。你装了个插件,结果把新闻网站的排版搞崩了,卸载。

直连 Anthropic API 也是反共识的。大多数 AI 插件会架一层自己的服务器,做缓存、限流、埋点分析。作者全不要,换的是零延迟、零隐私风险、零订阅抽成。代价是用户得自己搞 API key,门槛抬高,受众收窄到愿意折腾的群体。

这是典型的"为自己而建"(build for yourself)产品。GitHub 仓库是公开的,没有付费墙,没有增长黑客。但恰恰因为切口够小、需求够真,它在开发者圈子里完成了自传播。

什么在变

这个插件不会杀死搜索引擎,也不会取代大模型客户端。但它示范了一种新的交互契约:AI 不抢戏,只补位。

关键不在于"能查到什么",而在于"查完还能回来"。阅读流畅性被量化成可追踪的指标(跳跃深度),认知债务被设计成可管理的分期(层级拆解)。这些微创新堆起来,解决的是一个老问题:在信息过载时代,如何保持专注而不陷入无知。

如果你也经常读到一半去搜术语,然后二十分钟过去忘了本来在读什么——这工具值得试试。API key 在 Anthropic 控制台免费领,Shadow DOM 不会偷你的数据,计数器会提醒你跳了多深。

读长文的人,终于不用在"弄懂"和"读完"之间二选一了。