> GitHub: https://github.com/rohitg00/agentmemory
> License: Apache 2.0
> 标签:#agentmemory #持久记忆 #MCP #AI编程 #Token优化
---
## 一句话定位
**agentmemory 是 AI 编码 Agent 的持久记忆引擎**——它像一位永远在线的秘书,默默记录你每次和 Agent 的对话,下次打开时自动把相关上下文塞进 Agent 的脑子,让你再也不用重复解释"这个项目用 Vue 3 不是 React"。
最硬的数字:**92% Token 节省**,**95.2% 检索准确率**。
---
## 问题:为什么编码 Agent 需要"外脑"
用过 Claude Code、Cursor、Cline 的人都知道这个痛点:
> **每次新开对话,Agent 都像是得了失忆症。**
Session 1:你花了 20 分钟解释项目架构、技术栈、为什么选 jose 而不是 jsonwebtoken。
Session 2:"帮我加个 rate limiting。" Agent 回:"这个项目用的是什么认证方案?"
你:"???"
现有的"解决方案"就是各家的 `MEMORY.md`(Claude Code)、Notepads(Cursor)、Memory Bank(Cline)。但这些本质上就是**高级便利贴**:
- 200 行容量上限
- 只能全量加载进上下文(无法搜索)
- 每个 Agent 各管各的(Cursor 的记忆 Claude Code 看不到)
- 手动维护,迟早腐烂
agentmemory 想解决的就是这个:**让记忆真正持久、可搜索、跨 Agent、自动维护**。
---
## 核心架构:4 层记忆 + 3 引擎搜索
### 4 层记忆固化(Memory Consolidation)
设计灵感来自人脑的记忆处理——不是简单堆叠,而是分层提炼:
| 层级 | 内容 | 类比 |
|------|------|------|
| **Working** | 原始工具调用观察 | 短期记忆 |
| **Episodic** | 压缩后的会话摘要 | "发生了什么" |
| **Semantic** | 提取的事实和模式 | "我知道什么" |
| **Procedural** | 工作流程和决策模式 | "怎么做" |
**Working → Episodic**:Session 结束时,LLM 自动把原始观察压缩成结构化摘要。
**Episodic → Semantic**:定期跑知识图谱提取,把"某次会话里改了 auth 中间件"提炼成"项目使用 JWT 认证,中间件在 src/middleware/auth.ts"。
**Semantic → Procedural**:当检测到重复出现的决策模式(比如"每次改 API 都先写测试"),固化成工作流模板。
记忆还会**衰减**——艾宾浩斯遗忘曲线。频繁访问的记忆被强化,陈旧记忆自动驱逐,矛盾记忆被检测和解决。
### 混合搜索:BM25 + 向量 + 知识图谱
检索不是简单的关键词匹配,而是三层融合:
```
BM25(关键词匹配)
↓
向量嵌入(语义相似)
↓
知识图谱(关系推理)
↓
RRF 融合排序(Reciprocal Rank Fusion)
↓
Top-K 结果注入上下文
```
**为什么三层?**
- **BM25**:你搜"auth middleware",它找得到精确包含这些词的记录。
- **向量**:你搜"登录相关的东西",语义匹配找到"JWT token validation"——即使关键词完全不同。
- **知识图谱**:你搜"哪些文件依赖 auth",图谱能推理出关联关系。
RRF 融合把三层的排序结果合并,不依赖任何一层的绝对分数。
### 12 个生命周期 Hook:零手动捕获
agentmemory 不是在等你手动 `add_memory("项目用 Vue")`。它在后台监听 Agent 的工具调用:
```
PostToolUse hook 触发
→ SHA-256 去重(5 分钟窗口)
→ 隐私过滤(剥离 secrets、API keys)
→ 存储原始观察
→ LLM 压缩 → 结构化事实 + 概念 + 叙述
→ 向量嵌入(6 个提供商 + 本地 free 选项)
→ 索引到 BM25 + 向量库
Stop / SessionEnd hook 触发
→ 会话摘要
→ 知识图谱提取(GRAPH_EXTRACTION_ENABLED=true)
→ Slot 反射(SLOT_REFLECT_ENABLED=true)
SessionStart hook 触发
→ 加载项目画像(Top 概念、文件、模式)
→ 混合搜索(BM25 + 向量 + 图谱)
→ Token 预算(默认 2000 tokens)
→ 注入到对话上下文
```
**关键洞察**:SHA-256 去重不是怕你重复说,而是防止 Agent 在短时间内反复调用同一个工具(比如连续读同一个文件),产生冗余记忆。
---
## 竞品全景:agentmemory vs 现有方案
### vs 内置记忆(Claude Code MEMORY.md / Cursor Notepads)
|| 内置记忆 | agentmemory |
|---|---|---|
| 容量 | 200 行上限 | 无限制 |
| 搜索 | 全量加载进上下文 | BM25 + 向量 + 图谱(Top-K)|
| Token 成本 | 240 条观察 ≈ 22K+ tokens | ~1,900 tokens(**92%↓**)|
| 跨 Agent | 各管各的 | MCP + REST(任何 Agent)|
| 协调 | 无 | Leases、Signals、Actions、Routines |
| 可观测性 | 手动读文件 | :3113 实时查看器 |
**$10/年 vs $500/年**——agentmemory 用 API embeddings 时年成本约 $10,内置方案直接把全历史塞进上下文,成本随观察数量线性爆炸。
### vs mem0(53K ⭐)
|| mem0 | agentmemory |
|---|---|---|
| 类型 | 记忆层 API | 记忆引擎 + MCP Server |
| 检索 R@5 | 68.5%(LoCoMo)| **95.2%** |
| 自动捕获 | 手动 `add()` | **12 个 Hook,零手动** |
| 搜索 | 向量 + 图谱 | BM25 + 向量 + 图谱(RRF)|
| 多 Agent | API(无协调)| **MCP + REST + Leases + Signals** |
| 框架锁定 | 无 | **无** |
| 外部依赖 | Qdrant / pgvector | **零(SQLite + iii-engine)** |
| 记忆生命周期 | 被动提取 | **4 层固化 + 衰减 + 自动遗忘** |
### vs Letta / MemGPT(22K ⭐)
|| Letta | agentmemory |
|---|---|---|
| 类型 | 完整 Agent 运行时 | 记忆引擎 |
| 检索 | 向量(档案记忆)| **BM25 + 向量 + 图谱** |
| 框架锁定 | **高(必须用 Letta 运行时)** | 无 |
| 外部依赖 | Postgres + 向量 DB | **零** |
---
## 多 Agent 协调:不只是"记忆共享"
agentmemory 的野心不止于"同一个 Agent 跨会话记得你"。它还提供了多 Agent 协调机制:
- **Leases**:类似分布式锁。Agent A 正在修改某段记忆时,Agent B 不能同时改,防止冲突。
- **Signals**:Agent 可以发信号给其他 Agent("我改了这个 API,你们注意")。
- **Actions / Routines**:预定义的操作模板和周期性任务。
- **Mesh Sync**:多个 agentmemory 实例之间的同步。
这意味着:你可以让 Claude Code 写后端,Cursor 写前端,它们共享同一个记忆服务器,各自知道对方改了什么。
---
## Token 效率:数字背后的工程
| 方案 | 年 Token 消耗 | 年成本 |
|---|---|---|
| 粘贴完整历史 | 19.5M+ | 不可能(超窗口) |
| LLM 摘要 | ~650K | ~$500 |
| agentmemory(API embeddings)| ~170K | **~$10** |
| agentmemory(本地嵌入)| ~170K | **$0** |
**170K vs 650K**——不是 Agent 变聪明了,而是**检索变精准了**。不需要把全历史塞进上下文,只需要注入最相关的 Top-K 记忆。
嵌入模型默认用 `all-MiniLM-L6-v2`(本地、免费、无需 API key),也支持 6 个云提供商。
---
## 51 个 MCP 工具:记忆即服务
agentmemory 暴露为 MCP Server,提供 51 个工具供任何 MCP Client 调用:
```
记忆操作:mem_add, mem_search, mem_update, mem_delete, mem_get
记忆管理:mem_consolidate, mem_decay, mem_forget, mem_resolve_conflicts
项目画像:project_profile_get, project_profile_update
协调:lease_acquire, lease_release, signal_emit, signal_listen
观察:observation_stream, observation_compress
...
```
这意味着它不仅服务于编码 Agent。任何需要持久记忆的场景——个人知识管理、客服 Agent、研究助手——都可以接入。
---
## 安装与使用
```bash
# 安装(全局 MCP server + CLI)
npm install -g @agentmemory/mcp
# 启动记忆服务器
agentmemory server
# 配置 Claude Code 使用它
# 在 claude_desktop_config.json 中添加 MCP server
```
```json
// claude_desktop_config.json
{
"mcpServers": {
"agentmemory": {
"command": "npx",
"args": ["@agentmemory/mcp"]
}
}
}
```
Session 开始时会自动注入相关记忆,Session 结束时自动捕获新观察。**零配置,零手动**。
---
## 关键发现与评价
### ✅ 做得好的
1. **检索精度是硬指标**:95.2% R@5 不是吹的,有 LongMemEval-S(ICLR 2025)benchmark 背书。混合搜索的三层设计(BM25+向量+图谱)比单一方案强得多。
2. **零外部依赖是聪明的设计**:SQLite + iii-engine,不需要用户装 Postgres、Qdrant、Redis。降低了采用门槛——很多开发者看到"先装个向量数据库"就跑了。
3. **4 层记忆固化有理论根基**:不是拍脑袋想出来的,参考了认知科学的分层记忆模型。工程上实现了从原始观察到结构化知识的提炼管道。
4. **多 Agent 协调是差异化**:mem0 和 Letta 主要服务单 Agent 场景,agentmemory 的 leases + signals 让多 Agent 协作成为可能。
5. **隐私过滤是细节里的魔鬼**:自动剥离 secrets 和 API keys。很多记忆系统没做这个,导致敏感信息被持久化——灾难。
### ⚠️ 需要注意的
1. **早期项目,API 可能变化**:0.8.9 版本,还在快速迭代。生产环境用需要锁定版本。
2. **51 个 MCP 工具可能过于复杂**:功能丰富是好事,但初次配置可能 overwhelm。文档需要更好的"5 分钟上手"路径。
3. **记忆质量依赖使用模式**:如果 Agent 的使用模式很杂乱(比如今天写 Python、明天写 Rust、后天做设计),记忆图谱可能变得稀疏且交叉污染。项目级别的隔离很重要。
4. **iii-engine 的成熟度**:iii-engine 是 agentmemory 自研的嵌入/检索引擎,虽然避免了外部依赖,但长期维护成本需要考虑。
### 🤔 未解答的问题
- **大规模项目测试**:95.2% R@5 是在多大记忆规模上测的?如果记忆条目达到 10K+、100K+,检索性能如何?
- **跨项目记忆隔离**:支持项目级别隔离,但如果用户同时在 5 个项目间切换,记忆注入的精准度会下降吗?
- **与 OpenClaw 的集成深度**:README 说支持 OpenClaw,但实际集成体验如何?OpenClaw 的插件生态和 agentmemory 的 MCP 工具如何互补?
---
## 一句话总结
agentmemory 不是"又一个记忆库"——它是第一个把**认知科学的分层记忆模型**、**信息检索的三层混合搜索**、**分布式系统的协调机制**三者结合起来的编码 Agent 基础设施。92% Token 节省不是魔法,是精准检索的结果。
对于每天和编码 Agent 打交道的人来说,这可能是 2026 年最值得试的工具之一。
---
## 参考链接
- GitHub: https://github.com/rohitg00/agentmemory
- Benchmark: https://github.com/rohitg00/agentmemory/tree/main/benchmark
- LongMemEval 论文: https://arxiv.org/abs/2410.10813
- iii-engine: https://iii.dev/docs
---
#agentmemory #MCP #持久记忆 #AI编程 #Token优化 #ClaudeCode #Cursor #开源
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!
推荐
推荐
智谱 GLM-5 已上线
我正在智谱大模型开放平台 BigModel.cn 上打造 AI 应用,智谱新一代旗舰模型 GLM-5 已上线,在推理、代码、智能体综合能力达到开源模型 SOTA 水平。
领取 2000万 Tokens
通过邀请链接注册即可获得大礼包,期待和你一起在 BigModel 上畅享卓越模型能力