来源:市场资讯

(来源:磐创AI)

开源项目观察LLM Wiki:用 LLM 构建个人知识库的新范式你的知识库,可能做错了

大多数人的 LLM + 文档体验是这样的:

  1. 上传一堆文件

  2. 提问时,LLM 检索相关片段

  3. 生成答案

这叫 RAG。它有用,但有一个致命缺陷:LLM 每次都在重新发现知识。

你问一个需要综合 5 个文档的复杂问题,LLM 必须每次都重新找到并拼凑相关片段。没有积累。没有沉淀。

Notion AI、NotebookLM、ChatGPT 文件上传——都在这样工作。

另一种思路:LLM Wiki

与其每次从原始文档检索,不如让 LLM 增量构建和维护一个持久的 Wiki。

当添加新来源时,LLM 不只是索引它,而是:

  • 阅读并提取关键信息

  • 整合到现有 Wiki 中

  • 更新实体页面、主题摘要

  • 标记新旧数据矛盾

  • 强化或挑战演化的综合

知识编译一次,然后持续更新。

关键区别:Wiki 是一个持久、复利的产物。 交叉引用已经存在,矛盾已经标记,综合已经反映所有读过的内容。每加一个来源、每问一个问题,Wiki 都变得更丰富。

核心架构:三层结构

第一层:原始来源

你策划的源文档集合。文章、论文、图片、数据文件。

不可变——LLM 读取但不修改。这是你的真相来源。

第二层:Wiki

LLM 生成的 Markdown 文件目录。摘要、实体页面、概念页面、比较、概览、综合。

LLM 完全拥有这一层。创建页面、更新页面、维护交叉引用、保持一致性。你读,LLM 写。

第三层:Schema

一个文档(如 CLAUDE.md 或 AGENTS.md),告诉 LLM Wiki 如何结构化、遵循什么约定、摄入来源时执行什么工作流。

这是关键配置文件——让 LLM 成为有纪律的 Wiki 维护者,而不是通用聊天机器人。

实际应用场景

个人成长:跟踪目标、健康、心理、自我提升——归档日记、文章、播客笔记,随时间构建结构化的自我图景。

深度研究:在数周或数月内深入研究一个主题——阅读论文、文章、报告,增量构建全面的 Wiki 和演化的论点。

阅读一本书:逐章归档,构建人物、主题、情节线索页面。读完时有丰富的伴侣 Wiki。想想《指环王》粉丝 Wiki——成千上万互连页面覆盖角色、地点、事件、语言,由志愿者社区多年构建。你可以在阅读时个人构建类似的东西,LLM 做所有交叉引用和维护。

团队/商业:由 LLM 维护的内部 Wiki,由 Slack 线程、会议转录、项目文档、客户电话喂养。可能有人在环审查更新。Wiki 保持最新,因为 LLM 做没人愿意做的维护工作。

核心操作

1. Ingest(摄入)

你把新来源放入原始集合,告诉 LLM 处理它。

典型流程:

  • LLM 阅读来源

  • 与你讨论关键要点

  • 在 Wiki 中写摘要页面

  • 更新索引

  • 更新相关实体和概念页面

  • 在日志中追加条目

一个来源可能触及 10-15 个 Wiki 页面。

2. Query(查询)

你针对 Wiki 提问。LLM 搜索相关页面、阅读、综合带引用的答案。

重要洞察:好的答案可以作为新页面归档回 Wiki。 你要求的比较、分析、发现的连接——这些有价值,不应该消失在聊天历史中。

这样,你的探索像摄入来源一样在知识库中复利。

3. Lint(检查)

定期让 LLM 健康检查 Wiki:

  • 页面间矛盾

  • 已被新来源取代的过时声明

  • 没有入链的孤儿页面

  • 重要概念提到但没有自己的页面

  • 缺失的交叉引用

  • 可以用网络搜索填补的数据空白

LLM 擅长建议新问题调查、新来源寻找。这保持 Wiki 随增长保持健康。

两个特殊文件

index.md(索引)

内容导向。Wiki 中所有内容的目录——每个页面带链接、一行摘要、可选元数据(日期、来源数量)。按类别组织(实体、概念、来源等)。

LLM 每次摄入时更新。回答查询时,LLM 先读索引找相关页面,再深入。这在中等规模(~100 来源、~数百页面)下工作得惊人好,避免基于嵌入的 RAG 基础设施需求。

log.md(日志)

时间导向。发生什么和何时的只追加记录——摄入、查询、检查。

每个条目以一致前缀开始(如 ## [2026-04-02] ingest | Article Title),日志变得可用简单 Unix 工具解析——grep "^## \[" log.md | tail -5 给你最后 5 条。

日志给你 Wiki 演化的时间线,帮助 LLM 理解最近做了什么。

为什么这有效

维护知识库的繁琐部分不是阅读或思考——是簿记。

更新交叉引用、保持摘要当前、注意新数据何时与旧主张矛盾、维护跨数十页的一致性。人类放弃 Wiki 是因为维护负担增长比价值快。

LLM 不会厌倦,不会忘记更新交叉引用,可以在一次传递中触及 15 个文件。Wiki 保持维护,因为维护成本接近零。

人的工作是策划来源、指导分析、问好问题、思考这一切意味着什么。LLM 的工作是其他一切。

工具提示

  • Obsidian Web Clipper

    :浏览器扩展,将网页文章转为 Markdown。快速将来源放入原始集合。

  • 下载图片到本地

    :在 Obsidian 设置中配置附件文件夹路径,绑定快捷键下载附件。让 LLM 直接查看和引用图片。

  • Obsidian 图视图

    :查看 Wiki 形状的最佳方式——什么连接什么、哪些页面是枢纽、哪些是孤儿。

  • Marp

    :基于 Markdown 的幻灯片格式。从 Wiki 内容直接生成演示文稿。

  • Dataview

    :Obsidian 插件,对页面 frontmatter 运行查询。如果 LLM 在 Wiki 页面添加 YAML frontmatter,Dataview 可生成动态表格和列表。

  • Wiki 就是 Git 仓库

    :你免费获得版本历史、分支、协作。

总结

LLM Wiki 代表了个人知识管理的新范式:

  • 不是 RAG 的每次重新发现
  • 而是持久的、复利的知识编译

这个想法与 Vannevar Bush 1945 年的 Memex 愿景精神相关——个人的、策划的知识存储,文档间有联想路径。Bush 无法解决的是:谁做维护?

LLM 解决了这个问题。

你不需要完全照搬这个模式。它可以非常简单:一个 Markdown 文件夹、一个索引、一个 LLM 助手。重要的是模式本身:让 LLM 做簿记,你做思考和策划。

  • Obsidian:https://obsidian.md

  • Marp:https://marp.app

  • qmd(本地搜索引擎):https://github.com/tobi/qmd

  • Vannevar Bush, "As We May Think", 1945