LLM Wiki 模式

使用 LLM 维护个人知识库的方法论:raw/ 摄入源文档,LLM 编译成 interlinked wiki,通过 Q&A 和 lint 持续增强,所有知识累积不流失。

核心组件

  • raw/ 目录: 存放不可修改的源文档
  • wiki/ 目录: LLM 维护的 markdown 页面集合
  • 索引文件: 自动维护的 index.md 和摘要,让 LLM 无需 RAG 就能定位信息
  • Q&A 回填: 问答结果归档回 wiki,知识持续累积

适用规模

Karpathy 的案例:约 100 篇文章、40 万词。在这个规模下,LLM 通过索引文件就能高效定位信息。

四个设计原则(Karpathy)

与“越用越懂你”的黑盒 AI 不同,LLM Wiki 有四个明确的设计原则:

  1. Explicit(明确): 知识工件是明确的、可导航的。你可以看到 AI 知道什么、不知道什么,可以检查和管理整个 wiki。知识不是隐含未知的,而是明确可审查的。
  2. Yours(你的): 数据在本地,不在某个 AI 提供商的系统里。你对信息有完全控制权。
  3. File over App(文件优先): 知识以通用格式(markdown、图片)存储在文件中,不依赖特定应用。这意味着 Unix 工具链、任何 LLM、任何编辑器都能直接操作这些文件。数据可互操作。
  4. BYOAI(自带 AI): 你可以选择任何 AI 来处理这些数据 — Claude、Codex、OpenCode 都行。甚至可以用开源模型在自己的 wiki 上微调,让 AI 在权重中“知道”你的数据。

实践案例

Farzapedia: Farza 让 LLM 从 2500 条日记、Apple Notes 和 iMessage 对话中提取素材,生成了 400 篇详细文章,覆盖朋友、创业项目、研究领域、喜爱的动漫及其对自身的影响。

延伸方向

  • 自定义搜索引擎工具
  • 合成数据生成 + 微调
  • 多种输出格式(markdown、幻灯片、图表)

复习卡片

flashcard LLM Wiki 的四个设计原则是什么? ?

  1. Explicit(明确):知识工件可导航、可审查
  2. Yours(你的):数据在本地,完全控制权
  3. File over App(文件优先):通用格式存储,不依赖特定应用
  4. BYOAI(自带 AI):可以选择任何 AI 处理数据

flashcard LLM Wiki 的核心架构是什么? ? raw/ 目录存放不可修改的源文档,wiki/ 目录由 LLM 维护 markdown 页面集合,索引文件让 LLM 无需 RAG 就能定位信息,Q&A 回填使知识持续累积。

关联连接