## 项目概述
**Karpathy LLM Wiki** 是前 OpenAI 联合创始人、前特斯拉 AI 总监 Andrej Karpathy 于 **2026年4月4日** 发布的 GitHub Gist,两天内获得 **4,400+ Stars**,迅速引爆 AI 社区讨论。
**核心洞见**:与其让 AI 每次提问都重新检索,不如让 LLM 把资料**编译**成一个持续累积的 Wiki 知识库。
**发布链接**: https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
---
## 核心问题:为什么传统 RAG 不行?
### RAG 的根本缺陷
| RAG 模式 | LLM Wiki 模式 |
|---------|--------------|
| 每次提问 → AI 临时找资料 → 生成答案 → 结束 | 每加入资料 → AI 整合进知识库 → 知识持续累积 |
| 知识**不累积** | 知识**复利增长** |
| 3年后 AI 理解程度跟第1天一样 | Wiki 越来越聪明 |
**Karpathy 的原话**:"RAG 的问题是 AI 每次都在从零开始重新发现知识。知识库用了三年,AI 的理解程度跟第一天一样。"
---
## 三层架构
```
raw/ ← 原始资料(只读)
├── articles/ ← 网页文章
├── papers/ ← 学术论文
├── repos/ ← 代码仓库
└── assets/ ← 图片附件
↓ 编译
wiki/ ← LLM 维护的知识库
├── sources/ ← 资料摘要页
├── concepts/ ← 概念页
├── entities/ ← 实体页(人物、公司)
├── comparisons/ ← 对比页
├── index.md ← 导航索引
├── log.md ← 操作日志
└── overview.md ← 总览
↓ 生成
output/ ← 衍生输出
├── reports/ ← 问答报告
└── slides/ ← Marp 幻灯片
CLAUDE.md / AGENTS.md ← Schema 文件(LLM 行为指南)
```
### 第一层:raw/(原始资料)
**规则:只读,LLM 绝不修改**
- 网页文章 → Obsidian Web Clipper 一键转 Markdown
- PDF/论文 → 直接放入
- 播客 → Podwise 转文字稿
- 图片 → 下载到本地
### 第二层:wiki/(AI 维护的知识库)
**规则:完全由 LLM 撰写,人几乎不直接编辑**
每次加入新资料,LLM 会:
1. 读取新资料,与用户讨论重点
2. 创建摘要页面
3. **更新 10-15 个相关页面**(概念、实体、对比)
4. 标注新旧知识的矛盾/补充
5. 更新索引和日志
### 第三层:Schema 文件
**CLAUDE.md / AGENTS.md**:告诉 LLM 如何维护 Wiki 的操作手册
---
## 四个核心操作
### 1️⃣ Ingest(资料汇入)
**流程**:
```
用户:我刚在 raw/articles/ 放了一篇新文章,请汇入。
LLM:
- 读取文章,提取要点
- 创建 wiki/sources/summary-xxx.md
- 更新相关概念页(可能涉及 10-15 个页面)
- 标注与旧知识的矛盾
- 更新 wiki/index.md
- 追加到 wiki/log.md
- 用户确认后执行
```
**Karpathy 的偏好**:一次汇入一份资料,保持参与感——读 AI 写的摘要,确认方向正确。
### 2️⃣ Query(问答查询)
**流程**:
```
用户:Wiki 够大了,直接问复杂问题
LLM:
- 先读 wiki/index.md 找到相关页面
- 深入这些页面
- 整合出带引用来源的答案
输出格式:Markdown、对比表格、Marp 幻灯片、matplotlib 图表
```
**关键洞察**:好的答案本身可以存回 Wiki,形成**知识飞轮**
### 3️⃣ Lint(健康检查)
**定期扫描整个 Wiki**:
- 发现不同页面对同一概念的矛盾定义
- 找出被多次提及但没独立页面的概念
- 发现孤岛页面(无入链)
- 标注被新资料推翻的旧说法
- 填补数据缺口(网络搜索)
**类比**:软件开发的 CI/CD,对知识体系进行持续集成
### 4️⃣ Index + Log(导航系统)
| 文件 | 作用 |
|-----|------|
| **index.md** | 内容导向的目录,列出所有页面、摘要、标签 |
| **log.md** | 时间轴式操作记录,追加模式,记录每次汇入/查询/Lint |
---
## 技术实现
### 工具链
| 组件 | 工具 | 作用 |
|-----|------|------|
| AI Agent | Claude Code / OpenAI Codex | 操作本地文件 |
| 前端 | Obsidian | 浏览 Wiki、查看图谱 |
| 浏览器插件 | Obsidian Web Clipper | 一键保存网页为 Markdown |
| 搜索(可选)| qmd / 自建脚本 | 本地 BM25 + 向量混合搜索 |
### 目录结构(快速开始)
```bash
mkdir -p my-wiki/raw/{articles,papers,repos,assets}
mkdir -p my-wiki/wiki/{sources,concepts,entities,comparisons}
mkdir -p my-wiki/output/{reports,slides}
touch my-wiki/wiki/{index,log,overview}.md
touch my-wiki/CLAUDE.md # Schema 文件
```
### Schema 文件示例(CLAUDE.md)
```markdown
# LLM Wiki Schema
## 角色
你是这个知识库的维护者。用户负责:
- 提供原始资料
- 提问和探索
- 指导重点
你负责:
- 所有总结、交叉引用、归档
## 文件结构
- raw/:只读原始资料
- wiki/:你撰写的知识库
- output/:生成的报告和幻灯片
## 核心操作
1. Ingest:读取 raw/ 资料,创建摘要,更新相关页面
2. Query:回答用户问题,引用 Wiki 内容
3. Lint:定期健康检查
## 输出格式
- 每页必须包含:标题、摘要、正文、source 链接
- 使用双向链接:[[概念名]]
- 日期格式:YYYY-MM-DD
```
---
## 为什么这个方法行得通?
### 历史背景:Vannevar Bush 的 Memex(1945)
Karpathy 提到,这个理念精神上类似于 1945 年提出的 **Memex**——一个私人的、主动策展的知识库,文件之间的关联和文件本身一样有价值。
Bush 当年无法解决的问题是:**谁来做维护?**
创建关联线索、更新连接、保持一致——这些都是乏味的手动工作。人类放弃知识系统,因为**维护成本增长的速度比知识累积的价值快**。
### LLM 解决维护瓶颈
| 人类维护 | LLM 维护 |
|---------|---------|
| 会厌倦 | 不会厌倦 |
| 会忘记更新交叉引用 | 不会忘记 |
| 一次只能更新几个文件 | 一次可更新 15 个文件 |
| 觉得不值得花时间 | 维护成本趋近于零 |
**Karpathy 的原话**:"LLM 不會厭倦,不會忘記更新一個交叉引用,可以在一次操作裡更新 15 個文件。**維護成本趨近於零,知識庫才能持續存活。**"
---
## 适用场景
### Karpathy 列举的五大场景
1. **个人成长追踪**:目标、健康、心理——让 AI 帮你建立关于自己的结构化图像
2. **深度研究**:几周内研读论文,让 Wiki 随研究一起演化
3. **读书笔记**:每章归档,AI 建立人物/主题/情节页面并互联
- *例子*:读《战争与和平》,最终拥有媲美文学分析的私人 Wiki
4. **企业知识库**:Slack 讨论、会议记录、项目文档 → 持续更新的内部 Wiki
5. **其他**:竞品分析、尽职调查、旅游规划、课程笔记
---
## 社区扩展
### 已出现的开源实现
| 项目 | 链接 | 特点 |
|-----|------|------|
| **kb-template** | jeremyrayner/kb-template | 开箱即用的模板 |
| **compliance-wiki** | dinethlive/compliance-wiki | iGaming 合规领域适配 |
| **LLM-wiki** | Ss1024sS/LLM-wiki | 通用模板 + 多平台配置 |
### 社区贡献亮点
1. **.brain 文件夹模式**:项目根目录的 `.brain/` 包含 `index.md`, `architecture.md`, `decisions.md`,作为跨 AI 会话的持久记忆
2. **Gist 作为 Agent 间通信**:用 GitHub Gist 传递图表和上下文,在不同 AI 前端(Claude, Grok)之间共享
3. **Append-and-Review Note**:Karpathy 2025 年的博客理念——追加式笔记,LLM Wiki 是其进化版
---
## 局限性与门槛
### 当前限制
| 限制 | 说明 |
|-----|------|
| **技术门槛** | 需要 Claude Code / Codex 等工具 |
| **规模化** | 100-200 篇文章、5-10 万 token 以内效果最佳 |
| **原型状态** | Karpathy 自己说是"一堆脚本拼起来的原型" |
| **团队共享** | 需要通过 Git 共享,无原生权限控制 |
### Karpathy 的展望
他认为这里藏着一个**颠覆级产品的机会**——等待有人把这套工作流做成真正易用的产品。
**更远设想**:用 Wiki 做**合成数据生成和微调(fine-tuning)**,让 LLM 把知识"记在权重里",而不只是放在上下文中。
---
## 与传统方案的对比
| 方案 | 核心逻辑 | 优点 | 缺点 |
|-----|---------|------|------|
| **传统笔记** (Notion/Roam) | 人工整理、分类 | 完全可控 | 维护成本高、容易放弃 |
| **RAG 知识库** | 每次查询重新检索 | 无需维护 | 知识不累积、无复利 |
| **LLM Wiki** | AI 编译、持续维护 | 知识复利、维护成本趋零 | 需要 AI Agent 工具 |
---
## 核心启示
### 范式转换:从"搜索"到"编译"
**传统思维**:信息 → 搜索 → 答案(一次性)
**Karpathy 思维**:信息 → 编译 → Wiki → 查询 → 答案(可累积)
### 费曼式总结
想象你正在写一本关于某个主题的书。传统方式是每次写一章都要重新翻遍所有资料。Karpathy 的方式是:先让 AI 帮你把资料整理成一本不断更新的百科全书,然后你只需要问问题,AI 会从这本百科全书中给你答案——而且每次问答都会让这本书变得更厚。
**关键公式**:
```
复利知识库 = 原始资料 + LLM 编译 + 持续维护 + 查询回流
```
---
## 如何开始(5分钟启动)
1. **创建目录结构**(见上文)
2. **安装 Obsidian**,打开 `my-wiki/` 作为 Vault
3. **安装 Web Clipper**,一键保存文章到 `raw/articles/`
4. **打开 Claude Code**,告诉它:"阅读 CLAUDE.md 并设置知识系统"
5. **汇入第一份资料**:"请汇入 raw/articles/xxx.md"
---
## 参考资源
- **原始 Gist**: https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
- **Claude Code**: https://claude.ai/code
- **Obsidian**: https://obsidian.md
- **kb-template**: https://github.com/jeremyrayner/kb-template
---
研究时间: 2026-04-18
整理者: 小凯
#记忆 #小凯 #知识管理 #LLM #Karpathy #个人Wiki #第二大脑 #Obsidian #ClaudeCode
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!