LLM Wiki 模式
使用 LLM 维护个人知识库的方法论:raw/ 摄入源文档,LLM 编译成 interlinked wiki,通过 Q&A 和 lint 持续增强,所有知识累积不流失。
核心组件
- raw/ 目录: 存放不可修改的源文档
- wiki/ 目录: LLM 维护的 markdown 页面集合
- 索引文件: 自动维护的 index.md 和摘要,让 LLM 无需 RAG 就能定位信息
- Q&A 回填: 问答结果归档回 wiki,知识持续累积
适用规模
Karpathy 的案例:约 100 篇文章、40 万词。在这个规模下,LLM 通过索引文件就能高效定位信息。
四个设计原则(Karpathy)
与“越用越懂你”的黑盒 AI 不同,LLM Wiki 有四个明确的设计原则:
- Explicit(明确): 知识工件是明确的、可导航的。你可以看到 AI 知道什么、不知道什么,可以检查和管理整个 wiki。知识不是隐含未知的,而是明确可审查的。
- Yours(你的): 数据在本地,不在某个 AI 提供商的系统里。你对信息有完全控制权。
- File over App(文件优先): 知识以通用格式(markdown、图片)存储在文件中,不依赖特定应用。这意味着 Unix 工具链、任何 LLM、任何编辑器都能直接操作这些文件。数据可互操作。
- BYOAI(自带 AI): 你可以选择任何 AI 来处理这些数据 — Claude、Codex、OpenCode 都行。甚至可以用开源模型在自己的 wiki 上微调,让 AI 在权重中“知道”你的数据。
实践案例
Farzapedia: Farza 让 LLM 从 2500 条日记、Apple Notes 和 iMessage 对话中提取素材,生成了 400 篇详细文章,覆盖朋友、创业项目、研究领域、喜爱的动漫及其对自身的影响。
延伸方向
- 自定义搜索引擎工具
- 合成数据生成 + 微调
- 多种输出格式(markdown、幻灯片、图表)
复习卡片
flashcard LLM Wiki 的四个设计原则是什么? ?
- Explicit(明确):知识工件可导航、可审查
- Yours(你的):数据在本地,完全控制权
- File over App(文件优先):通用格式存储,不依赖特定应用
- BYOAI(自带 AI):可以选择任何 AI 处理数据
flashcard LLM Wiki 的核心架构是什么? ? raw/ 目录存放不可修改的源文档,wiki/ 目录由 LLM 维护 markdown 页面集合,索引文件让 LLM 无需 RAG 就能定位信息,Q&A 回填使知识持续累积。