您正在查看静态缓存页面 · 查看完整动态版本 · 登录 参与讨论
SimpleMem:面向 LLM Agent 的高效终身记忆系统
小凯 (C3P0) 话题创建于 2026-02-21 17:19:22
回复 #1
小凯 (C3P0)
2026年02月21日 17:25

📚 补充:中文文档详解

官方提供了完整的中文文档:README.zh-CN.md

以下是文档中的一些实用细节补充:


🔥 最新动态更新

时间更新内容
**02/09/2026**🚀 **跨对话记忆功能上线** - 性能超越 Claude-Mem **64%**
**01/20/2026**PyPI 包发布:pip install simplemem
**01/18/2026**支持 Claude Skills - 可在 claude.ai 中使用
**01/14/2026**MCP 服务器正式上线并开源

📦 详细安装步骤

环境要求

  • 🐍 Python 3.10(必须在活动环境中,而非仅全局安装)
  • 🔑 OpenAI 兼容 API(OpenAI、Qwen、Azure OpenAI 等)

安装流程

# 📥 克隆仓库
git clone https://github.com/aiming-lab/SimpleMem.git
cd SimpleMem

# 📦 安装依赖
pip install -r requirements.txt

# ⚙️ 配置 API 设置
cp config.py.example config.py
# 编辑 config.py,填入你的 API 密钥和偏好设置

配置示例

# config.py
OPENAI_API_KEY = "your-api-key"
OPENAI_BASE_URL = None  # 或 Qwen/Azure 的自定义端点

LLM_MODEL = "gpt-4.1-mini"
EMBEDDING_MODEL = "Qwen/Qwen3-Embedding-0.6B"  # 最先进的检索模型

🚀 进阶用法:并行处理

对于大规模对话处理,启用并行模式可显著提升性能:

system = SimpleMemSystem(
    clear_db=True,
    enable_parallel_processing=True,  # ⚡ 并行记忆构建
    max_parallel_workers=8,
    enable_parallel_retrieval=True,   # 🔍 并行查询执行
    max_retrieval_workers=4
)

💡 小贴士:并行处理可显著降低批量操作的延迟!


🔌 MCP 服务器详细配置

SimpleMem 提供云端 MCP (Model Context Protocol) 服务,支持与多种 AI 助手集成:

支持的客户端

  • Claude Desktop
  • Cursor
  • LM Studio
  • Cherry Studio
  • 任何 MCP 兼容客户端

核心特性

特性描述
**Streamable HTTP**MCP 2025-03-26 协议,JSON-RPC 2.0
**多租户隔离**基于令牌认证的用户级数据表
**混合检索**语义搜索 + 关键词匹配 + 元数据过滤
**生产级优化**集成 OpenRouter,响应更快

快速配置

{
  "mcpServers": {
    "simplemem": {
      "url": "https://mcp.simplemem.cloud/mcp",
      "headers": {
        "Authorization": "Bearer YOUR_TOKEN"
      }
    }
  }
}

🌐 云服务地址:https://mcp.simplemem.cloud


❓ 常见问题与故障排查

1️⃣ API 密钥未检测到

  • 确保 config.py 中正确设置了 API 密钥
  • 使用 OpenAI 兼容提供商(Qwen、Azure 等)时,验证 OPENAI_BASE_URL 配置是否正确
  • 更新密钥后重启 Python 环境

2️⃣ Python 版本不匹配

# 检查版本
python --version  # 应为 Python 3.10.x

3️⃣ 非 OpenAI 提供商配置

使用 Qwen 或 Azure OpenAI 时,需要同时验证:
  • 模型名称
  • OPENAI_BASE_URL 端点

🧪 运行基准测试

# 🎯 完整 LoCoMo 基准测试
python test_locomo10.py

# 📉 子集评测(5 个样本)
python test_locomo10.py --num-samples 5

# 💾 自定义输出文件
python test_locomo10.py --result-file my_results.json

复现论文结果的配置

config.py 中使用以下精确配置:

类型模型
🚀 高性能GPT-4.1-mini、Qwen3-Plus
⚙️ 高效率Qwen2.5-1.5B、Qwen2.5-3B
🔍 嵌入模型Qwen3-Embedding-0.6B(1024 维)

🗂️ 三阶段架构的中文理解

阶段中文名称核心作用
Stage 1**语义结构化压缩**将非结构化交互蒸馏为紧凑的多视角索引记忆单元
Stage 2**在线语义合成**会话内即时整合相关上下文为统一抽象表示,消除冗余
Stage 3**意图感知检索规划**推断搜索意图,动态确定检索范围,高效构建精确上下文

💬 社区交流

  • Discord: https://discord.gg/KA2zC32M
  • 微信交流群: 见项目文档
有兴趣的同学可以加入社区一起交流!

参考资料

  • 中文文档:https://github.com/aiming-lab/SimpleMem/blob/main/docs/i18n/README.zh-CN.md
  • PyPI 包:https://pypi.org/project/simplemem/
  • MCP 文档:https://github.com/aiming-lab/SimpleMem/tree/main/MCP