## 楔子:Alice 的 GitHub 账号
2026 年 4 月,GitHub 上出现了一个新的 AI 项目:
- 上线 48 小时:3,800+ stars,360 forks
- 一周之内:19,500+ stars,2,300+ forks
- LongMemEval 基准:**100% 满分**(史上首个)
项目作者:**Milla Jovovich** —— 对,就是那个在《生化危机》里拿枪一路打到世界尽头的 Alice。
更魔幻的是,她在 Instagram 上说:
> "我和 Ben 讨论后想,'为什么不做个虚拟的记忆宫殿?'反正什么都比装满垃圾的仓库强。"
---
## 第一部分:为什么是她?
### 从挫败到灵感
Milla 在 Instagram 上分享了她的挫败:
> "几个月的精心整理之后,我发现 AI 就是不太擅长找东西,哪怕你存了最好的文件。市面上每个系统都还在用关键词搜索——在我看来真的太笨重、太乱了……
>
> 最后你的文件夹就像一个巨大的仓库,所有文件就像一堆写着日期和名字的垃圾。"
这个比喻很直白,但也很真实。
用 AI 的人都有这个体验:对话就是产出物。你跟 AI 聊了几个月,讨论过架构决策、调试过 bug、权衡过方案——这些全在聊天记录里。但等你想找"当初为什么选 GraphQL 而不是 REST"的时候,关键词搜索完全派不上用场。
### 古希腊的记忆术
然后她想起了一些东西:
> "我读过很多关于古希腊人如何记忆长演讲的内容,还有那些记忆大师怎么记住圆周率后 7 万位。我觉得我们应该让 AI 能用一种更'有机'的方式记住信息。"
古希腊的**记忆宫殿术**(Method of Loci)——演说家们把想法放在想象建筑的房间里,"走"过建筑就能找到想法。
这成了 MemPalace 的起点。
---
## 第二部分:宫殿的 Anatomy
### 空间结构
MemPalace 的核心是"空间化"的记忆组织:
```
Palace
├── Wing (翼) ← 一个人或一个项目
│ ├── Hall (厅) ← 记忆类型:facts/events/discoveries/advice
│ │ ├── Room (室) ← 具体主题:auth、billing、deploy
│ │ │ ├── Closet ← AAAK 压缩摘要
│ │ │ └── Drawer ← 原始文件,一字不差
│ │ └── ...
│ └── ...
├── Tunnels (隧道) ← 跨 Wing 连接相同主题
└── Halls (走廊) ← 同一 Wing 内连接相关 Room
```
**实测效果**:22,000+ 条对话,结构本身带来 **+34% 检索准确率提升**。
### 连接的力量
```
wing_kai / hall_events / auth-migration → "Kai debugged OAuth"
wing_driftwood / hall_facts / auth-migration → "团队决定迁移到Clerk"
wing_priya / hall_advice / auth-migration → "Priya批准了Clerk而不是Auth0"
```
同一个 Room,三个 Wing,**隧道**把它们连起来。
这种设计让 AI 不仅能找到"有什么",还能理解"谁说了什么"、"在什么语境下"。
---
## 第三部分:AAAK —— 30 倍压缩的"AI 母语"
### 一个例子
**原始英文**(约 1000 tokens):
```
Priya manages the Driftwood team: Kai (backend, 3 years), Soren (frontend),
Maya (infrastructure), and Leo (junior, started last month). They're building
a SaaS analytics platform. Current sprint: auth migration to Clerk.
Kai recommended Clerk over Auth0 based on pricing and DX.
```
**AAAK 压缩后**(约 120 tokens):
```
TEAM: PRI(lead) | KAI(backend,3yr) SOR(frontend) MAY(infra) LEO(junior,new)
PROJ: DRIFTWOOD(saas.analytics) | SPRINT: auth.migration→clerk
DECISION: KAI.rec:clerk>auth0(pricing+dx) | ★★★★
```
**8 倍省 token,30 倍压缩比**。
### 关键特性
| 特性 | 说明 |
|------|------|
| **原生可读** | Claude、GPT、Gemini、Llama、Mistral 无需解码器 |
| **结构化英文** | 有通用语法,任何模型都能秒懂 |
| **完全本地** | 可在离线模型上运行,零云依赖 |
| **可逆设计** | 信息无损失,可还原为原始文本 |
### 诚实的免责声明
团队在 GitHub 上写了一行很重要的话:
> **AAAK currently regresses LongMemEval** vs raw verbatim retrieval (84.2% R@5 vs 96.6%). The 96.6% headline number is from **raw mode**, not AAAK mode.
也就是说:
- **原始文本 + ChromaDB**:96.6%(零 API 调用)
- **AAAK 压缩**:84.2%(但省 30 倍 token)
这是一个**权衡**,而非银弹。
---
## 第四部分:四层记忆栈
MemPalace 采用分层加载策略:
| 层级 | 内容 | 大小 | 加载时机 |
|------|------|------|----------|
| **L0** | 系统提示 + AAAK 引导 | ~70 tokens | 启动时 |
| **L1** | 核心身份信息(家庭、项目、偏好) | ~100 tokens | 启动时 |
| **L2** | 相关 Room 的完整内容 | 动态 | 搜索触发时 |
| **L3** | 原始文件(Drawer) | 按需 | 需要细节时 |
**AI 醒来带着 L0+L1**(约 170 tokens),知道你的世界。搜索只在需要时触发。
---
## 第五部分:知识图谱 + MCP
### SQLite 知识图谱
类似 Zep 的 Graphiti,但用 **SQLite 而不是 Neo4j**:
- 完全本地
- 完全免费
- 支持**时序实体关系三元组**(可以查"某个时间点什么为真")
### MCP 服务器集成
```bash
claude mcp add mempalace -- python -m mempalace.mcp_server
```
**19 个工具**,AI 自动学会 AAAK 和记忆协议,无需手动配置。
---
## 第六部分:Benchmark 数据 —— 有点离谱
### LongMemEval(AI 记忆系统标准基准)
| 系统 | 得分 | 成本 | 本地 |
|------|------|------|------|
| **MemPalace (raw)** | **96.6%** | 免费 | 是 |
| **MemPalace (+Haiku rerank)** | **100%** | ~$0.001/查询 | 可选 |
| Supermemory | ~99% | 付费 | 否 |
| Mem0 | ~85% | $19-249/月 | 否 |
| Zep | ~85% | $25/月+ | 否 |
**96.6% 是零 API 调用、零云服务、零订阅的结果。** 纯本地 ChromaDB 向量检索。
100% 是可选加一层 Haiku/Sonnet rerank 的结果——成本约 $0.001/查询。
### 成本对比
| 方案 | 年成本 | 备注 |
|------|--------|------|
| **MemPalace** | **$10/年** | 记住一切 |
| **竞品** | **$507/年** | 会丢信息的总结 |
数据来源:一年用 AI 聊天的数据量约 1950 万 tokens。
---
## 第七部分:核心洞察 —— "简单的东西"
### 一个有趣的发现
团队在 benchmark 文档里写了一段很诚实的话:
> **"Nobody published this result because nobody tried the simple thing and measured it properly."**
>
> (没人发表过这个结果,因为没人试过那个简单的东西然后好好测量。)
他们的 baseline 就是:
- 把原始文本存进 ChromaDB
- 用默认 embedding 搜索
- **不提取、不总结、不让 AI 决定什么重要**
结果 96.6%。
这个数字说明一件事:**整个领域在过度设计记忆提取这一步。**
原始文本配好的 embedding,baseline 比任何人意识到的都强。
### 为什么其他系统不行?
Mem0、Zep 等系统的问题是:
> 当你让 LLM 提取"user prefers PostgreSQL"然后扔掉原始对话,你丢掉的是"为什么"、备选方案、讨论的权衡。
MemPalace **全留着**,检索模型能找到。
---
## 第八部分:技术架构
### 文件结构
| 文件 | 功能 |
|------|------|
| `cli.py` | CLI 入口 |
| `config.py` | 配置加载和默认值 |
| `normalize.py` | 转换 5 种聊天格式为标准 transcript |
| `mcp_server.py` | MCP 服务器 — 19 工具,AAAK 自动教学 |
| `miner.py` | 项目文件摄取 |
| `convo_miner.py` | 对话摄取 — 按 exchange pair 分块 |
| `searcher.py` | 通过 ChromaDB 语义搜索 |
| `layers.py` | 4 层记忆栈 |
| `dialect.py` | AAAK 压缩 — 30x |
| `knowledge_graph.py` | 时序实体关系图(SQLite) |
| `palace_graph.py` | 基于 Room 的导航图 |
| `entity_detector.py` | 自动实体检测 |
### 设计原则
1. **单依赖原则**:只依赖 ChromaDB,无其他外部服务
2. **本地优先**:所有数据在本地,可完全离线运行
3. **格式兼容**:支持 5 种聊天格式的规范化导入
4. **错误检测**:能捕捉错误的人名、代词、年龄
---
## 第九部分:使用方式
### 安装
```bash
pip install mempalace
```
### 初始化
```bash
mempalace init ~/projects/myapp
```
### 导入数据
```bash
mempalace mine ~/projects/myapp # 项目文件
mempalace mine ~/chats/ --mode convos # 对话记录
```
### 搜索
```bash
mempalace search "为什么要用 GraphQL"
```
### 接入 Claude
```bash
claude mcp add mempalace -- python -m mempalace.mcp_server
```
然后你就不用再敲命令了。AI 自动调用。
---
## 第十部分:评价与反思
### 亮点
| 亮点 | 说明 |
|------|------|
| **名人效应** | Milla Jovovich 让项目获得巨大关注,但技术本身经得起审视 |
| **诚实透明** | 明确区分 96.6%(原始模式)vs 84.2%(AAAK 模式)|
| **架构优雅** | 记忆宫殿的空间隐喻直观且有效 |
| **本地优先** | 完全离线运行,隐私友好 |
| **开源精神** | MIT 许可证,零成本使用 |
### 局限
| 局限 | 说明 |
|------|------|
| **AAAK 的 trade-off** | 压缩带来 token 节省,但准确率下降 12% |
| **规模问题** | 实测 22,000 条对话,超大规模时的性能未验证 |
| **错误检测未完全集成** | `fact_checker.py` 尚未自动触发(Issue #27)|
| **对比基准的争议** | 96.6% 是零 API 调用模式, rerank 后才是 100% |
### 更大的意义
MemPalace 代表了一种**反潮流**的哲学:
> 在 AI 领域人人都在做"智能摘要"、"关键信息提取"的时候,MemPalace 说:**"不,全部存下来,让搜索去解决。"**
这是一种**数据保守主义**——在算力充足的今天,存储成本远低于信息丢失的代价。
Milla Jovovich 作为一个"外行"(演员),却能洞察到专业 AI 工程师忽视的简单真理,这本身就是对当前 AI 领域过度工程化的一记响亮耳光。
---
## 结语:Multipass
项目发布当天,Ben Sigman 发了一条推特:
> "Multipass."
这是《第五元素》里 Milla 饰演角色 Leeloo 的经典台词。
一个单词,道尽了整个项目的精神:
- 技术可以很复杂
- 但用户体验应该很简单
- 就像 Leeloo 的 Multipass —— 一个证件,通行无阻
MemPalace 不是最复杂的 AI 记忆系统,但可能是**最诚实、最实用、最符合直觉**的一个。
---
## 参考信息
- **GitHub**: https://github.com/milla-jovovich/mempalace
- **官网**: https://www.mempalace.tech/
- **作者**: Milla Jovovich + Ben Sigman
- **开发工具**: Claude Code
- **许可证**: MIT
- **核心架构**: Palace (Wing/Hall/Room/Closet/Drawer) + AAAK 压缩
- **存储**: ChromaDB + SQLite
- **集成**: MCP 服务器(19 工具)
- **Benchmark**: LongMemEval 100% (with rerank), 96.6% (raw)
- **社区**: 19,500+ stars, 2,300+ forks
---
*"20 年的友情,聊过无数次合作,最后是一个 AI 项目把这事做成了。"*
*"有时候,对的项目在对的时间找到你。然后你得愿意从那堆'垃圾'里,建一座宫殿。"*
#MemPalace #MillaJovovich #AI记忆 #记忆宫殿 #LongMemEval #AAAK #开源 #小凯
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!