LLM Wiki – Karpathy开源的自运行个人知识库

LLM Wiki是什么

LLM Wiki是Karpathy推出的自运行的个人知识库,突破传统RAG”每次查询从零检索”的局限。LLM Wiki通过Schema文件指导LLM主动维护结构化Markdown Wiki,将原始资料”编译”为带交叉引用、矛盾标注的持久化知识体。在三层架构(原始资料/Wiki/Schema)支持下,知识随使用持续累积增厚,非重复推导。人类专注提问与策展,LLM承担维护工作,让Obsidian成为IDE、Wiki成为代码库、LLM成为程序员。

LLM Wiki

LLM Wiki的主要功能

  • 知识灌入(Ingest):将原始资料(PDF、文章等)放入 raw/ 目录,LLM 自动提取关键信息,撰写摘要,联动更新 Wiki 中的实体页、概念页及相关交叉引用(一次资料可能触发 10-15 个页面更新)。
  • 智能查询(Query):基于已编译的 Wiki 内容回答问题,输出支持 Markdown、对比表格、Marp 幻灯片、matplotlib 图表等多种格式。
  • 健康巡检(Lint):定期自动检查知识库矛盾、过时结论、孤立页面、缺失引用,提出新的研究方向。
  • 索引维护:自动维护 index.md(内容目录,替代传统 RAG 的向量检索)和 log.md(时间线日志),无需复杂数据库即可支撑中等规模(约 100 篇/40 万字)的知识管理。

如何使用LLM Wiki

  • 环境准备:安装 Obsidian 作为阅读器,准备 Claude Code 等 LLM Agent 作为维护者。
  • 初始化目录:创建包含 raw/(原始资料)、wiki/(生成内容)和 CLAUDE.md(Schema 配置)的文件夹结构。
  • 配置 Schema:将 Karpathy Gist 的内容复制给 Agent,让其生成定义 Wiki 结构、页面格式和工作流程的配置文件。
  • 灌入资料:将新文件放入 raw/ 目录并指令 Agent 处理,LLM 会自动提取关键信息并联动更新 Wiki 中的摘要、实体页和交叉引用。
  • 查询归档:向 Agent 提问获取基于 Wiki 的综合回答,并指令将优质答案存回 Wiki 成为新页面以实现知识持续累积。
  • 健康巡检:定期指令 Agent 检查 Wiki 中的矛盾、过时结论和孤立页面,保持知识库结构清晰和内容一致。
  • 浏览使用:在 Obsidian 中打开 wiki/ 文件夹实时查看最新更新、点击双向链接并使用图谱视图探索知识关联。

LLM Wiki的关键信息和使用要求

  • 本质:让 LLM 主动维护持续累积的结构化知识库,而非传统 RAG 的”每次查询从零检索”。
  • 架构:三层结构:raw/(原始资料,只读)→ wiki/(LLM 生成的 Markdown)→ Schema(如 CLAUDE.md 规则配置)。
  • 核心操作:Ingest(灌入资料自动更新多页)→ Query(基于 Wiki 回答并可归档)→ Lint(定期健康检查矛盾与缺失)。
  • 关键机制:知识编译一次、持续保鲜,交叉引用与矛盾标注持久化,越用越厚。

LLM Wiki的核心优势

  • 知识复利累积:突破传统 RAG 每次查询”从零检索、用完即弃”的局限,Wiki 是持久化、可累积的产物——新资料自动整合进已有知识网络,交叉引用和矛盾标注持续沉淀。
  • 零维护负担:LLM 承担所有繁琐维护工作,自动更新 10-15 个关联页面、标注新旧数据矛盾、维护索引和交叉引用。人类只需专注策展与提问,无需手动整理。
  • 中等规模免基建:在 100 篇/40 万字规模内,仅靠 Markdown 索引文件即可高效检索,无需向量数据库、嵌入模型或复杂 RAG 架构,大幅降低技术门槛。
  • 动态自增强:优质问答可一键归档回 Wiki 成为新页面,探索过程本身持续丰富知识库,形成”使用即增长”的飞轮效应。

LLM Wiki的项目地址

  • GitHub仓库:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f

LLM Wiki的同类竞品对比

对比维度 LLM Wiki NotebookLM
(RAG 代表)
Mem
(AI 笔记代表)
知识模式 主动编译,
持续累积
被动检索,
每次从零拼凑
AI 自动整理,
但无显式编译层
维护主体 LLM 全职维护
(自动更新多页、
标注矛盾)
无维护,
每次临时检索
AI 黑盒处理,
用户难干预规则
核心架构 三层分离:
raw/(只读)
wiki/(LLM写)
Schema(规则层)
单层:
原始资料直接作为
检索源
双层:
笔记内容 +
AI 关联
索引机制 Markdown 索引文件
(中等规模免向量库)
向量嵌入 +
相似度检索
私有算法
(黑盒)
可定制性 白盒控制
通过 CLAUDE.md
自定义页面格式、
更新规则、工作流
固定流程
无法干预检索
和生成逻辑
黑盒限制
仅能开关功能,
无法定义维护规则
输出沉淀 优质回答可
归档回 Wiki
形成新页面
回答消失于
对话历史
可保存但
缺乏结构化
归档机制
技术门槛 仅需 Markdown
文件 + Obsidian
依赖 Google
基础设施
依赖第三方
云服务

LLM Wiki的应用场景

  • 个人成长:追踪目标、健康、心理状态与自我提升历程,整理日记、文章、播客笔记,构建关于自我的结构化认知图谱。
  • 学术研究:围绕特定主题进行数周或数月的深度钻研,阅读论文、报告,逐步构建包含演化论点的综合知识体系。
  • 阅读伴侣:阅读书籍时逐章整理,建立人物、主题、情节线索的关联页面,最终形成类似 Tolkien Gateway 的完整知识网络。
  • 企业/团队知识库:接入 Slack 对话、会议纪要、项目文档、客户沟通记录,由 LLM 自动维护实时更新的内部 Wiki,无需人工额外投入。
© 版权声明

相关文章

火山引擎

暂无评论

暂无评论...