周三下午,一个程序员第17次向AI助手解释公司的代码规范。同样的接口命名规则,同样的错误处理模式——每次对话从零开始,每次都要付费重新"理解"。

这不是个例。RAG(检索增强生成)把知识库变成了开卷考试:Agent带着"参考书"进考场,考完就忘。真正决定Agent上限的,是记忆架构——它能不能像人一样学习、整理、进化知识。

打开网易新闻 查看精彩图片

OpenAI联创Andrej Karpathy最近开源了LLM Wiki,用一个Markdown文件解决了核心问题:如何把零散信息变成AI能推理的知识系统。YC CEO Garry Tan的GBrain项目也在走同一条路,但更强调工程严谨性。

人类擅长收集信息,却 terrible 于维护。浏览器收藏夹里的"稍后阅读"、桌面上的PDF堆——都是数字化石。企业和个人面临双重崩塌:知识随产品政策过期失效,多维关系的手工维护成本高昂。

Prompt Engineering教模型"做什么任务"。Knowledge Engineering教模型"该知道什么"和"怎么运用所知"。LLM Wiki的颠覆在于:不让模型每次都从原始文档重新发现答案,而是维护一份持续更新、互相链接、能识别矛盾的知识wiki。

知识不再是静态池塘,而是活的生命体。代码工作流里,我们要的不只是语法正确,更是风格惯例——"接口优先"还是"原型优先"、偏好的框架、异常处理习惯。这些无法靠单次检索获得,只能靠结构化记忆积累。

RAG把书带进考场。知识工程教会Agent深度学习、做笔记、每周进步。生产环境的杠杆效应,从这里开始分化。