来源:市场资讯
(来源:PaperWeekly)
说实话,第一次看到这个项目的时候,我们的第一反应不是技术,而是有点离谱。
Milla Jovovich,那个在《生化危机》里一路打丧尸、从蜂巢杀到末世的女主 Alice,居然在 GitHub 上开源了一个 AI 记忆系统。
这个名为 MemPalace 的项目,显然不是一次明星跨界式的玩票。
至少从公开出来的设计看,它瞄准的是一个现在越来越重要、但还远没被真正做好的问题:大模型的长期记忆。
项目地址:
https://github.com/milla-jovovich/mempalace
不搞摘要,保留全量原文
这两年大家都在谈 agent、谈推理能力,但只要重度使用过 AI 一段时间,就会发现一个更基础的瓶颈:模型变聪明了,协作连续性却没有真正跟上。
团队关系、历史决策、被否决的方案,这些上下文一旦对话跨度拉长,就很容易被遗忘。
不少 memory 系统更偏向先做信息抽取或摘要,把长对话压缩成较短的记忆单元。
MemPalace 的思路是反过来的,尽量不在前置阶段做删减,而是保留原始对话文本,再通过后续的结构化组织与检索来完成召回。
〓MemPalace 结构示意图
它不是先替你判断什么重要,而是尽量把内容留下来,再解决怎么找回来的问题。
给记忆分层分区
面对全量存储带来的检索噪音,MemPalace 采用了一套很明确的结构化方法:记忆宫殿。
系统会先按人物、项目或主题划分 Wing,再在内部继续拆成对应具体议题的 Room。这里的重点不在命名,而在于它显式缩小了检索空间。
项目给出的结果显示,加入 wing 和 room 这样的结构约束后,检索效果会明显提升,其中 wing + room 相比基础检索带来了 34% 的增益。
〓四层 memory stack:常驻背景层 + 按需召回
在这个结构上,MemPalace 又叠了一层轻量记忆栈:身份和关键事实常驻,更深的搜索按需触发。
配套的 AAAK 压缩表示,则把长期上下文压到很小的体积,用于冷启动加载。按照项目给出的说法,智能体在启动时只需占用约 120 个 token,就能载入关键背景信息。
也就是说,模型不是在回答过程中才临时去翻历史记录,而是在进入任务前,就已经带着一个低成本的背景状态醒来。
〓MemPalace 的主要 benchmark 结果
LongMemEval 原始检索 96.6%,加入 rerank 后 100%,这些数字当然足够吸引眼球。
但比 benchmark 更值得关注的,还是它已经不只是一个围绕榜单优化的 demo,而是一套试图接入真实工作流的本地 memory system。
〓MemPalace 与已发布系统的 LongMemEval 对比
时序与一致性的防线
长期记忆真正难的,不只是存下来,而是时序一致性。历史积累越长,记忆污染也会越明显。
MemPalace 在检索之外,还叠加了一层带时间有效性的知识图谱。
〓带时间有效性的知识图谱示例
谁在什么时候参与了项目、某个状态后来有没有变化,这些事实关系都带有时间窗口。系统处理的因此不只是有没有提过,还包括在那个时间点上是否成立。
这也延伸到了它的另一项设计:冲突检测。当名字、工龄、日期等信息与已有记录冲突时,系统会先给出一致性提示,避免错误事实继续进入回答。
〓MemPalace 的冲突检测示例
对长期 memory 来说,这一步的重要性并不低于 recall 本身。
高分之外
MemPalace 对准的,其实是一个很清楚的方向:大模型下一阶段的竞争,除了推理能力,也会包括能否形成稳定、低成本、长期在线的记忆机制。
这件事真正有意思的地方,未必只是《生化危机》女主参与开源了一个 AI 记忆系统,而是它把一个越来越清晰的变化放到了眼前。
写代码、搭工作流、做个人工具,正从少数人的专业技能,慢慢变成一种更广泛的创作能力。
放在几年前,这还像一句玩笑。放到今天,它已经越来越像现实。
热门跟贴