每个用过Claude超过两周的人,都经历过同一种崩溃。第17次输入"我们用的是Rails 8不是React",第8次粘贴技术栈文档,第23次解释"上周二那个决策为什么选SQLite"。
AI的记忆力比金鱼还短——每次新开对话,你们的关系就归零。
一个刚上线的产品Hjarni想终结这个循环。它不是让Claude"变聪明",而是给了它一个能随时查阅的笔记本。开发者声称配置只需5分钟,我试了下,实际3分半。
01 核心逻辑:给AI配个外接大脑
Hjarni的本质极其简单。你写笔记,Claude通过MCP(模型上下文协议,一种让AI调用外部工具的标准接口)搜索并读取。一条URL完成连接,没有API密钥要抄,没有Python脚本要跑。
具体配置比煮泡面还快。注册hjarni.com,新建一条笔记,把你想让AI记住的东西扔进去。格式随意,我测试时直接复制了技术栈清单:
Rails 8 + SQLite。Hetzner服务器通过Kamal部署。MCP server内置于应用。Tailwind + Turbo,无React。Solid Queue处理后台任务。
然后打开Claude设置,找到Connectors,添加自定义连接器。命名"Hjarni",粘贴https://hjarni.com/mcp。完成。
新开对话,什么都不解释,直接问:"基于我产品的已知信息写个pitch。"Claude会静默搜索你的笔记,生成答案。你不需要复制粘贴任何背景。
02 谁真的需要这个
不是所有用户。如果你用Claude只是偶尔查代码片段或润色邮件,重复输入的成本几乎为零。
但有一类人的痛点极其具体:技术负责人、独立开发者、产品经理——任何需要AI持续参与复杂项目的人。他们的上下文不是三句话能说清的,包含技术债务、决策历史、业务约束、团队偏好。
Hjarni的创始人显然属于这个群体。产品设计上处处可见"被重复解释折磨过"的痕迹:
免费 tier 给25条笔记,带完整MCP权限,不要信用卡。这个数字经过计算——刚好够覆盖一个中小型项目的关键上下文,又不至于让白嫖党薅秃服务器。
模板功能支持快速回答FAQ或存储复用片段。这对应的是另一类高频场景:投资人问商业模式、客户问技术方案、候选人问技术栈——同一套话,第N次打字。
03 为什么是笔记,而不是更酷的方案
市面上不缺"让AI有记忆"的尝试。OpenAI的Memory功能自动记录对话中的个人信息,但黑箱操作,用户无法审阅或编辑。RAG(检索增强生成)方案需要自建向量数据库,门槛高到劝退99%的人。
Hjarni选了最朴素的路径:人工维护的笔记+结构化搜索。这听起来不够"智能",但换来了可控性。你知道AI读到了什么,能随时修正错误信息,能决定哪些该记、哪些该忘。
类比的话,OpenAI的Memory像助理偷偷记小抄,Hjarni像你自己整理的活页夹。前者方便,后者可靠。对于讨厌惊喜的技术从业者,这个选择不难做。
04 局限与真实成本
免费 tier 的25条笔记是硬天花板。超出后需付费,但官网还没公布价格——这是典型的"先验证需求再定价"策略,也意味着早期用户可能面临突然收费的风险。
另一个隐性成本:维护笔记本身。如果你懒得整理,Hjarni就是空的。它不会自动从你的GitHub仓库、Notion页面或Slack对话里提取信息。所有上下文必须手动录入,格式自由但责任自负。
目前仅支持Claude和ChatGPT。Gemini、Grok、国产大模型的用户还得继续当复读机。
但最有趣的限制来自产品哲学。Hjarni的文档里反复出现同一句话:"如果你已经输入过两次,就存进来。"这不是技术建议,是行为设计——它在训练用户建立"可复用资产"的意识,把碎片信息转化为结构化知识。
05 一个被低估的信号
MCP(模型上下文协议)正在快速成为AI基础设施的事实标准。Anthropic去年11月开源这个协议后,不到半年已有数百个连接器上线。Hjarni是第一批针对"个人知识管理"场景的MCP原生应用。
这个趋势指向一个反直觉的结论:AI的短期记忆缺陷可能永远无法根治,但外部化记忆的成本正在趋近于零。未来的竞争点不是"谁的模型记得更久",而是"谁的上下文管理更优雅"。
测试结束时,我在Hjarni里存了7条笔记。第8次对话,我问Claude:"我们为什么不用React?"它从笔记里找到了答案——不是搜索互联网,不是 hallucinate,是读了我写的那句话。
这种确定性,比任何"智能"都更让人安心。
你现在有多少条信息,已经向不同的AI重复输入过三次以上?
热门跟贴