一个全职栈工程师在Reddit晒了个数据:他统计了自己过去三年的AI编程对话,发现超过2000次"这个问题我们好像解决过"的重复查询。平均每次重新调试耗时47分钟——相当于有1560个小时在原地打转。
这就是ContextCore诞生的背景。作者FrancisTR把它形容成"给AI助手装了个外接海马体":本地 ingestion(摄取)多IDE的聊天历史,转成可搜索的记忆层,再通过MCP协议喂回给未来的对话。
关键设计:本地优先,除非你自己打开semantic search(语义搜索)开关
FrancisTR在README里反复敲黑板:数据默认不出境。只有当你主动调用MCP server让LLM查历史时,内容才会进入模型上下文。向量检索和摘要功能确实要调LLM,但支持本地模型——这对被Copilot数据政策搞怕过的团队是刚需。
技术架构拆三层:parser层解耦IDE差异(目前支持VS Code/Cursor/Windsurf,IntelliJ模板待填坑),storage层用SQLite+可选向量扩展,MCP层暴露标准化接口。作者放话:"加新IDE parser现在很简单,架构文档和模板都备好了。"
从"聊天考古"到"上下文复利"
现有方案的问题在于碎片化。GitHub Copilot的chat存云端但跨会话失忆,Cursor有project rules但绑定单机器,Windsurf的cascade流式体验好却没法回溯三个月前的架构决策。开发者被迫在多个" silo(孤岛)"里手动打捞知识。
ContextCore的狠招是把silos打通,同时保持vendor-independent(厂商无关)。同一段关于SomeClass.function的调试记录,可以被VS Code里的Copilot引用,也可以被Cursor里的Claude追问细节——只要双方都走MCP协议。
FrancisTR的roadmap里列了三个优先级:搜索精度优化(当前"decent but much more can be done")、多模态支持(把截图里的报错也纳入索引)、团队协作层(共享记忆但保持隐私边界)。
MCP协议:被低估的"通用语"
这个项目的赌注押在MCP(Model Context Protocol,模型上下文协议)上。Anthropic去年开源的这套标准,本意是让AI助手统一调用外部工具——FrancisTR反着用:让外部记忆统一接入助手。
类比的话,MCP像USB-C接口。以前每个AI助手有自己的充电口,ContextCore做了个充电宝,同时兼容所有口。更妙的是双向流动:历史对话既能被查询,也能被新对话自动 enrich(丰富)——形成正反馈。
作者坦承当前搜索是短板。关键词检索已经可用,语义搜索需要额外配置向量模型,而"智能摘要"功能还在todo list。他放出的demo视频里,查询"那个关于Redis连接池的bug"能准确定位到四个月前的Windsurf会话——但复杂条件组合查询会漏结果。
开源策略: lurker(潜水员)的复仇
FrancisTR的身份标签很有意思:"Full-Stack AI Engineer",状态"Open to Work",签名档挂着罗斯福那句"A Smooth Sea never made a Skilled Sailor"。他在帖子里说这是"first time showing in a public forum after being a lurker for years"——多年潜水后的首次发声。
这种背景解释了产品的两个特征:一是极端务实,没有"revolutionary"之类的PR话术,README里直接列已知局限;二是明确求助,想要contributor来填IntelliJ parser、优化搜索算法、打磨文档。路线图是公开的,issue模板是现成的。
社区反馈分化明显。Hacker News上有团队lead表示已经在内部部署,看重的是"审计友好"——所有记忆访问留痕,方便回溯谁查过什么;也有独立开发者质疑:本地SQLite能撑多大体量?作者回复说当前测试到10万条会话无压力,但确实在调研pgvector迁移方案。
AI编程的"状态管理"难题
这个工具戳中了一个被忽视的痛点:AI辅助编程的"状态丢失"。传统IDE的配置、插件、代码片段可以同步,但AI对话的上下文是瞬时的。每次新开窗口,模型对你的项目认知归零——除非你把历史手动塞进prompt,而token成本爆炸。
ContextCore的解法是把隐式记忆显式化。不是让模型"记住"你,而是给模型一个可调用的记忆库。这区分了"有状态"和"无状态"两种架构:前者像人类同事越合作越默契,后者像每次对接新外包。
FrancisTR的endgame(终局设想)很具体:成为工程师 digging into chat history 的可靠副手,且"minimum tokens spent"。不是替代思考,而是减少重复检索的认知税。这个定位避开了和主流AI IDE的正面对抗,卡在基础设施层。
项目GitHub星标在48小时内从0涨到340,但作者更在意的是3个实质性PR——包括一个改进中文分词的贡献者。他在最新commit message里写:" lurker years taught me: traction is not stars, it's strangers helping strangers."
如果AI编程助手最终走向专业化分工,这类记忆中间件会成为标准组件吗?还是会被大厂以"原生功能"的名义收编?FrancisTR的赌注是:vendor-independent 的 cross-agent 层,永远有生存空间——只要开发者还在用多于一种AI工具。
热门跟贴