【ZOL中关村在线原创技术解析】2026 年 4 月 6 日,一个名为 MemPalace 的开源项目在 GitHub 上线,两天内收获超过两万颗星。项目发起人的名字让不少开发者反复确认——Milla Jovovich,《生化危机》系列电影中饰演 Alice 的女演员。她与开发者 Ben Sigman 合作,用 Anthropic 的 Claude Code 协作完成了这套 AI 记忆系统的搭建。
明星跨界做技术项目并不罕见,但 MemPalace 引发关注的原因不止于此。它切入的是一个真正的痛点:大模型在长周期协作中的记忆缺失。
1 问题出在哪?
过去两年,大模型在推理、生成、工具调用等方面的能力突飞猛进,但"记忆"始终是短板。用户与 AI 的对话跨度一旦拉长,早期讨论过的背景、决策、被否定的方案就会逐渐被模型"遗忘"。这不是模型变笨了,而是上下文窗口有物理限制——无论窗口多大,总有装不下的时候。
现有的记忆方案大多采用"先压缩,后存储"的策略:让模型自行判断哪些信息重要,提取摘要后丢弃原文。这种做法的代价是显而易见的——当初为什么选了方案 A 而不是方案 B,中间那段推理过程,往往就是被压缩掉的部分。
2 MemPalace 的思路:不删减,靠结构
MemPalace 反其道而行。它保留完整的对话原文,存入本地的 ChromaDB 向量数据库,不做摘要、不做提取。系统不替用户决定什么重要,而是把"怎么找回来"交给后续的结构化检索去解决。
这套结构借鉴了古希腊修辞学中的"记忆宫殿"技法。系统将记忆组织为三层:Wing(翼)按人物或项目划分,Hall(厅)按记忆类型区分(事实、事件、建议等),Room(房间)对应具体议题(比如"认证迁移"或"GraphQL 切换")。当同一个房间出现在不同 Wing 中时,系统会自动建立"隧道"关联,将同一主题在不同上下文中的讨论串联起来。
这套结构的价值体现在检索效率上。根据项目公开的数据,无结构全量检索的召回率为 60.9%,加入 Wing 约束后提升至 73.1%,再叠加 Room 约束则达到 94.8%——结构化带来了 34% 的检索增益。
MemPalace 还设计了一套四层记忆栈。最底层(L0)是用户身份信息,L1 是关键事实,两者合计约 170 个 token,在每次会话启动时常驻加载。更深层的历史记忆(L2/L3)则按需通过语义搜索触发。
这意味着模型不需要在回答问题时临时翻阅全部历史,而是在"醒来"那一刻就已经带着最基本的背景认知。配套的 AAAK 压缩方言可以将长期上下文进一步压缩,虽然目前该功能仍处于实验阶段,在基准测试中的表现(84.2%)不及原始模式(96.6%),但作为上下文加载时的压缩层,其设计方向值得关注。
3 时序一致性:记忆系统真正的硬仗
存下来只是第一步,更难的是保持时序一致性。一个人半年前在 A 公司工作,现在跳到了 B 公司——如果记忆系统不能处理这种知识更新,就会给出过时甚至矛盾的回答。
MemPalace 为此引入了带时间有效性的知识图谱。每条事实关系都标注了时间窗口,系统在检索时不仅判断"有没有提到过",还会判断"在那个时间点是否仍然成立"。当新信息与已有记录冲突时,系统会触发冲突检测机制,给出一致性提示,防止错误事实被模型引用。
在 LongMemEval 基准测试中——这是目前评估 AI 长期记忆能力最具代表性的测试集——MemPalace 的原始检索模式取得了 96.6% 的成绩,加入 rerank 后达到 100%。需要注意的是,这一成绩在社区中存在争议,项目方也将最初宣称的 100% 修正为 96.6%(原始模式)。但即便如此,这一水平在同类免费开源系统中仍属前列。
4 写在最后
MemPalace 上线后并非一帆风顺。开发者社区对 Jovovich 的实际技术参与度提出质疑,也有人对基准测试的评估方式提出异议。Jovovich 本人回应称,代码中出现的"Lu"并非第三方开发者,而是她使用的 AI 编程代理,她在项目中扮演的是架构设计者的角色,Sigman 负责工程实现。
争议之外,MemPalace 触及的底层问题是真实存在的:当人与 AI 的协作越来越深入,对话本身就是工作成果的一部分,而不仅仅是获取答案的通道。全量保留加结构化检索、本地运行零云端依赖、170 token 冷启动——这些设计选择传递出一个明确的产品主张:记忆的取舍权应该留在用户手里,而不是交给另一个模型去代劳。
这或许才是 MemPalace 最有意思的地方:当模型的推理能力逐渐拉不开差距,谁能让 AI 真正"认识"长期合作的用户,谁就握住了下一轮产品竞争的入场券。记忆,正在从一个锦上添花的辅助功能,变成决定体验上限的核心能力。
热门跟贴