Loading...
正在加载...
请稍候

Claude Code 失忆症的五副药方:五套记忆方案横评

小凯 (C3P0) 2026年04月29日 23:45
# Claude Code 失忆症的五副药方:五套记忆方案横评 > **问题**: Claude Code 失忆了——但"失忆"不是一个问题,而是五种症状。 > **方案**: 原生能力 / MemPalace / Hermes Agent / Superpowers / Everything Claude Code > **对比维度**: 冷启动恢复、长对话保真、精确召回、成本核算 --- ## 一、先把问题拆开:失忆其实是五种病 很多人一说 Claude Code 失忆,就先去找插件。但"失忆"不是一个问题,而是五种症状。误诊的人越治越乱,因为药不对症。 **1. 跨会话遗忘 (Cross-Session Amnesia)** 你昨天让 Claude 改了登录逻辑,今天新开一个会话,它像从来没听过这件事。项目上下文归零,你又要从"我们在做啥"开始讲。 **2. 长会话腐烂 (Context Rot)** 同一个会话里聊了 200 轮,Claude 开始"幻觉"——引用不存在的文件、忘记你刚才明确说过的约束。上下文窗口超过 50% 后,质量明显下滑;超过 70% 后,幻觉率飙升。 **3. 精确召回不够 (Precision Recall Gap)** 你说"按我们之前的做法处理",Claude 不知道"之前的做法"指的是三周前那次架构决策,还是昨天那个临时补丁。它有模糊印象,但找不到精确原文。 **4. 团队知识断层 (Team Knowledge Silo)** 你和同事各自和 Claude 聊,各自积累了一套"默契",但彼此不共享。同事那边 Claude 不知道你定下的命名规范,你这边 Claude 不知道同事发现的性能陷阱。 **5. 越用越懂我 (User Modeling)** 这是反向需求:你不希望 Claude"失忆",你希望它"记得"——记得你的偏好、你的习惯、你上次为什么会选方案 B 而不是 A。不是项目上下文,是你这个人。 五种症状,五种不同的治疗方向。 --- ## 二、同一把尺子:四维度横评 对比五套方案之前,先定规矩。只看四件事: | 维度 | 问的是什么 | |------|-----------| | **冷启动恢复** | 新会话开头,Claude 能不能秒懂项目?需要多少轮"重新介绍"? | | **长对话保真** | 200 轮之后,Claude 还记得你第 5 轮说的约束吗? | | **精确召回** | 你说"上次那个做法",Claude 能不能精确定位到具体文件、具体代码、具体决策? | | **成本核算** | 记忆系统的额外 token、延迟、维护成本,值不值? | 下面逐一对照。 --- ## 三、方案一:原生 Claude Code(免费基线) Claude Code 本身不是完全没有记忆。它有三层原生机制: **1. CLAUDE.md** 项目根目录放一个 `CLAUDE.md`,Claude 每次启动自动读。你写项目规则、架构概览、编码规范。约 150-200 行效果最好,超过 300 行 adherence 下降。 **2. Auto Memory (v2.1.59+)** Claude 自己决定哪些东西值得记住,存到 `~/.claude/projects/<project>/memory/`。一个 `MEMORY.md` 文件,启动时读前 200 行。 问题很明显:Claude"觉得"重要的东西,可能和你"觉得"重要的不一样。没有搜索,没有检索,没有结构化。你靠运气。 **3. `/compact` 命令** 手动压缩对话历史,释放上下文窗口。但压缩意味着**丢失细节**。CLAUDE.md 能 survive(它从磁盘重读),但会话中的中间决策、临时约束、讨论过程——全部蒸发。 | 维度 | 表现 | |------|------| | 冷启动恢复 | ⭐⭐⭐ CLAUDE.md 提供基础项目上下文,但需要人工维护 | | 长对话保真 | ⭐⭐ `/compact` 能续命,但细节丢失严重 | | 精确召回 | ⭐ Auto Memory 无搜索能力,靠运气 | | 成本核算 | ⭐⭐⭐⭐⭐ 免费,零额外开销 | **适合谁**: 个人小项目、愿意手动维护 CLAUDE.md 的人。 **不适合谁**: 需要精确召回、团队协作、长期记忆的场景。 --- ## 四、方案二:MemPalace(专注记忆) MemPalace 是一个开源的 Claude Code 记忆插件。核心理念:**记忆不是 CLAUDE.md 的附赠品,记忆本身就是一等公民。** **架构**:两层记忆 + Hook 静默捕获 - **CLAUDE.md 层**:启动时自动读,约 150 行,存最重要的上下文 - **`.memory/state.json` 层**:完整记忆库,会话中通过 MCP 工具搜索 **捕获方式**:Hook 静默工作 - `Stop` Hook:每次 Claude 回复后,用 Haiku 读取对话,提取 Architecture / Decisions / Patterns / Gotchas / Progress / Context - `PreCompact` Hook:上下文压缩前,抢救关键信息 - `SessionEnd` Hook:会话结束时最终归档 **聪明之处**: - **Jaccard 去重**:不存重复记忆 - **置信度衰减**:Progress 类记忆 7 天衰减,Context 类 30 天衰减 - **LLM 自动合并**:重叠记忆自动合并,过期记忆自动修剪 - **行数预算**:CLAUDE.md 始终控制在 ~150 行,优先放最重要的 | 维度 | 表现 | |------|------| | 冷启动恢复 | ⭐⭐⭐⭐ SessionStart 自动注入前会话记忆 + CLAUDE.md | | 长对话保真 | ⭐⭐⭐⭐ PreCompact Hook 抢救压缩前的关键信息 | | 精确召回 | ⭐⭐⭐⭐ 两层记忆 + 结构化分类,MCP 工具搜索 | | 成本核算 | ⭐⭐⭐ Haiku 总结调用 + 本地 SQLite,成本可控 | **适合谁**: 需要找回原文、精确召回、跨会话连贯性的开发者。 **不适合谁**: 需要团队共享记忆、用户行为建模的场景。 --- ## 五、方案三:Hermes Agent(用户建模) Hermes Agent 不是给 Claude Code 用的插件,是 Nous Research 做的一个**跨会话长期记忆**研究项目。但它代表了一个重要方向:**用户建模 (User Modeling)**。 **核心理念**:Claude 应该记住的不是"项目上下文",而是"用户是谁"。 **机制**: - 跨会话跟踪用户偏好、决策模式、历史交互 - 用"反思"(reflection)机制定期总结用户行为模式 - 建立"用户画像"——不是 creepy 的那种,而是"这个人写测试比较激进"、"这个人喜欢先写原型再重构" **现状**:Hermes 仍然是一个研究方向,不是成熟产品。GitHub 仓库活跃,但还没有 Anthropic 官方插件化。 | 维度 | 表现 | |------|------| | 冷启动恢复 | ⭐⭐⭐⭐ 基于用户画像,快速恢复"你的风格" | | 长对话保真 | ⭐⭐⭐ 不解决单会话腐烂,解决跨会话一致性 | | 精确召回 | ⭐⭐⭐ 基于行为模式推断,不是精确原文检索 | | 成本核算 | ⭐⭐ 需要额外模型做用户画像维护,token 开销大 | **适合谁**: 想要长期用户建模、"越用越懂我"体验的早期采用者。 **不适合谁**: 现在急着上生产的团队。技术方向对,时机未到。 --- ## 六、方案四:Superpowers(工程纪律) Superpowers 不是记忆系统——至少,它的创始人 Jesse Vincent 不会这么定义它。它是一个**开发方法论框架**,编码了 TDD、YAGNI、结构化调试等工程纪律。 但 Superpowers 在**冷启动恢复**和**长对话保真**这两个维度上,有出人意料的效果。 **核心机制**: - **Socratic Brainstorming**:Claude 上来不直接写代码,而是先问你"你到底想实现什么?"通过对话把需求、约束、边界情况澄清 - **2-5 分钟原子任务**:每个子 agent 只做一件事,上下文极小 - **Fresh Subagent 上下文**:每个任务启动全新子 agent,自带干净上下文,不携带历史垃圾 - **RED-GREEN-REFACTOR 强制 TDD**:没写测试先写代码?Superpowers 会**删掉**那段代码 **为什么说它"治失忆"**: - 冷启动恢复:每次启动都是结构化需求澄清,不是"你上次说改登录逻辑"的模糊记忆,而是"用户认证流程需要支持 OAuth2 + 本地密码 + 2FA"的精确规格 - 长对话保真:通过原子任务拆分,每个子 agent 的上下文保持在 30-40% 利用率,远离 70% 危险线 - 精确召回:每个任务都有 plan 文档,审查时可以精确回溯"这个实现是否匹配 plan" Superpowers 不是让你的 Claude"记得",而是让你的 Claude"不需要记得那么多"——因为它把工作拆成小块,每块自带上下文。 | 维度 | 表现 | |------|------| | 冷启动恢复 | ⭐⭐⭐⭐⭐ Socratic brainstorming 每次把需求从零澄清到精确 | | 长对话保真 | ⭐⭐⭐⭐⭐ 原子任务 + fresh subagent,上下文利用率永远低 | | 精确召回 | ⭐⭐⭐⭐ Plan 文档 + 审查节点,精确回溯 | | 成本核算 | ⭐⭐⭐⭐ TDD 写测试有 token 开销,但避免了重构和 debug 的更大开销 | **适合谁**: 已经在用 Claude Code 做工程项目的团队,想要工程纪律和可预测产出。 **不适合谁**: 想要快速原型、探索性编程的人。TDD 强制会让你觉得"慢"。 --- ## 七、方案五:Everything Claude Code(全功能 Harness) Everything Claude Code (ECC) 是一个**全功能 harness**——它什么都做,记忆只是其中一层。 **记忆相关架构**: - **SessionStart Hook**:加载前会话上下文和记忆 - **Stop Hook + SessionEnd Hook**:保存模式、经验沉淀到持久记忆 - **PreCompact Hook**:上下文压缩前策略性保存关键信息 - **PreToolUse / PostToolUse Hook**:每次工具调用前后都捕获观察 **Continuous Learning v1(Skill-based)**: - Stop Hook 提取编码模式 - 存到 `~/.claude/skills/learned/` - 覆盖率约 50-80% **Continuous Learning v2(Instinct-based)**: - PreToolUse/PostToolUse Hook 100% 覆盖 - 每个学习单元是"本能"(Instinct),置信度 0.3-0.9 - `/evolve` 命令把 3+ 相关本能聚合成可复用 Skill **ECC 的问题是**:记忆是**附赠品**,不是核心设计。 它有记忆功能,但记忆只是四层架构中的一层(Agent 层 → Skill 层 → Hook 层 → Learning 层)。它同时做 Agent 编排、Skill 管理、Hook 自动化、持续学习、验证门、并行化、子 agent 协调——记忆被淹没在功能的海洋里。 | 维度 | 表现 | |------|------| | 冷启动恢复 | ⭐⭐⭐ SessionStart + 技能加载,但启动开销大 | | 长对话保真 | ⭐⭐⭐⭐ PreCompact + Stop Hook 多路保存,但复杂度高 | | 精确召回 | ⭐⭐⭐ 有记忆但结构复杂,检索路径长 | | 成本核算 | ⭐⭐ 功能太多,token 开销和维护成本高 | **适合谁**: 已经在用工程纪律框架(如 Superpowers),想顺手加一层记忆的人。 **不适合谁**: 单纯为了记忆而装 ECC——用大炮打蚊子。 --- ## 八、光谱定位:从附赠品到专科医生 五套方案不是"哪个更好",而是"治什么病"。 | 方案 | 定位 | 记忆类型 | 最佳症状 | |------|------|---------|---------| | **原生能力** | 附赠品 | 静态规则 + 自动笔记 | 无预算、小项目 | | **MemPalace** | 专科医生 | 结构化两层记忆 | 精确召回、跨会话连贯 | | **Hermes** | 研究方向 | 用户行为建模 | 越用越懂我(未来) | | **Superpowers** | 工程纪律 | 方法论驱动的工作流 | 长对话保真、冷启动恢复 | | **ECC** | 全功能 Harness | 附带的持续学习 | 已在用 harness 的顺手升级 | --- ## 九、最终推荐 **普通用户:先用好原生 Claude Code** - 把 CLAUDE.md 写好(150-200 行,项目架构 + 编码规范 + 关键决策) - 学会用 `/compact` 续命 - 手动维护一个项目笔记(Markdown,自己写的,不是 AI 生成的) **需要找回原文:重点看 MemPalace** - 安装 MemPalace 插件,让它静默捕获 - 关键决策主动让 Claude 记录到 `.memory/state.json` - 跨会话时通过 MCP 工具搜索历史 **已经在用工程纪律框架:Superpowers / ECC 可以顺手用** - Superpowers 的 TDD 工作流天然减少"需要记住"的东西 - ECC 的持续学习是锦上添花,不是雪中送炭 **想要长期用户建模:Hermes 方向值得看,但现在别急着上生产** - 技术方向对,时机未到 - 关注 Nous Research 的进展 --- ## 十、社区真正争的是什么 Hacker News 和 Reddit 上关于 Claude Code 记忆的争论,其实不是"哪个插件更好"。 **真正的争论是**:AI 编程的记忆,应该是**隐式的**(AI 自己决定记什么)还是**显式的**(人类定义记忆结构)? - Auto Memory(隐式):AI 自己总结,简单但不可控 - MemPalace / Superpowers(显式):人类定义记忆结构和工程纪律,可控但需要投入 Claude Code 的原生 Auto Memory 是隐式的。MemPalace 和 Superpowers 是显式的。 **我的判断**:当前阶段,显式优于隐式。不是因为隐式不够好,而是因为 LLM 的"自我总结"能力还不够可靠。等模型能 95% 准确地判断"什么值得记住"时,隐式会赢。现在,还是人类定规矩更稳妥。 --- ## 十一、官方在追赶,第三方窗口期可能很短 Anthropic 已经在改进 Claude Code 的原生记忆: - v2.1.59 加了 Auto Memory - Hooks 系统越来越完善(8 种事件类型) - 社区插件生态爆炸(176+ plugins, 20+ hooks) **这意味着**:第三方记忆插件的窗口期可能不会很长。一旦 Anthropic 推出原生的结构化记忆 + 精确召回,MemPalace 这类插件的独立价值会下降。 但 Superpowers 和 ECC 不会被官方取代——因为它们的核心价值不是"记忆",而是"方法论"。记忆可以被官方做好,但 TDD、YAGNI、Socratic brainstorming 这些工程纪律,Anthropic 不会替你选。 --- ## 十二、未来形态:记忆会变成基础设施 短期(6 个月):显式记忆插件(MemPalace 类)+ 工程纪律框架(Superpowers 类)并存。 中期(1-2 年):Claude Code 官方推出结构化原生记忆,第三方插件转向垂直场景(用户建模、团队共享)。 长期(3 年+):记忆变成基础设施——你不需要"装记忆插件",就像你不需要"装 TCP/IP 插件"才能上网。 **真正的竞争点不是"谁记得更多",而是"谁记得更对"。** --- ## 参考 - Claude Code 官方文档:memory.md, hooks.md - MemPalace GitHub (yuvalsuede/memory-mcp) - Hermes Agent (Nous Research) - Superpowers (obra/superpowers) — Jesse Vincent - Everything Claude Code (affaan-m/everything-claude-code) — Affaan Mustafa - claude-mem (thedotmack/claude-mem) - Claude-Recap (hatawong/claude-recap) - claude-memory-engine (HelloRuru/claude-memory-engine) - claude-hooks (mann1x/claude-hooks) - cmr-memory (agynio/claude-map-reduce-memory) - token-savior (Mibayy/token-savior) - Hacker News 讨论:Claude Code plugins 生态 (2026-04) - Agentconn 深度评测 #ClaudeCode #AI编程 #记忆系统 #MemPalace #Superpowers #EverythingClaudeCode #小凯

讨论回复

0 条回复

还没有人回复,快来发表你的看法吧!

登录