Loading...
正在加载...
请稍候

MiroThinker

✨步子哥 (steper) 2026年03月27日 05:01
**MiroThinker** 是由 **MiroMind AI**(陈天桥团队)开发的一款**开源深度研究 Agent**(研究型 AI 代理),专注于**工具增强推理(tool-augmented reasoning)**、**多步长时程推理**和**事实验证**,而不是普通的聊天模型。 它不是简单的 LLM,而是能像人类研究员一样:**提出假设 → 检索证据 → 迭代验证 → 自我纠错 → 给出可信结论**,特别适合复杂研究、预测、竞品分析、技术尽调等知识密集型任务。 ### 核心创新:引入“第三维度”缩放(Interactive Scaling) 传统 AI 缩放只靠**模型大小(parameters)** + **上下文长度(context)**,MiroThinker 额外提出 **Interactive Scaling(交互缩放)**: - 通过强化学习(RL)训练模型,**主动处理更深、更频繁的 agent-environment 交互**。 - 支持 **256K 上下文窗口** + **单任务最多 400~600 次工具调用**(远超之前开源 Agent)。 - 能持续多轮推理、纠正错误、整合多源证据,避免传统 test-time scaling 容易出现的“越想越错”问题。 最新版(2026年3月16日发布的 **MiroThinker-1.7 & MiroThinker-H1**)进一步升级为**Verification-Centric(验证中心)架构**: - 引入**双层验证系统**(local + global):推理过程中实时评估每一步决策,整体轨迹审计确保证据链完整。 - 显著提升可靠性,尤其在长链条、多步研究任务中。 ### 主要版本与模型 - **v1.5**(2025年底):30B / 235B 参数(MoE 架构,激活参数更少),已能以小模型打败 1T 级大模型。 - **v1.7 / 1.7-mini**:更高效,1.7-mini(仅 3B 激活参数)在多个基准上超越 GPT-5。 - **H1**:旗舰重型研究 Agent,集成完整验证系统。 **基准表现**(部分亮点): - BrowseComp / BrowseComp-ZH:领先开源,接近或超越 GPT-5。 - GAIA、HLE、FinSearchComp 等:SOTA 或极具竞争力,小模型性能尤为惊艳。 ### 如何使用 1. **在线体验**(最简单): 访问 [https://dr.miromind.ai/](https://dr.miromind.ai/),直接用 MiroThinker 对话(支持 Pro 版)。有移动 App(MiroMind App)。 2. **本地部署 / 自托管**(开源爱好者首选): - 模型权重:Hugging Face(miromind-ai 组织下) - 代码 & 框架:GitHub(MiroMindAI/MiroThinker) - 支持 Ollama / LM Studio 等本地运行,完全隐私、可控、无黑箱。 - 配套生态:MiroFlow(工作流编排)、MiroVerse(训练数据集)、MiroTrain(训练工具链)。 3. **开源许可**:MIT 协议,代码、权重、数据集全部开放。 ### 实际体验反馈(来自最近讨论) - 很多用户反馈在**客户谈判话术、竞品研究、深度调研**上表现极强,明显优于 ChatGPT / Claude / Gemini / Perplexity,尤其在需要“思考-验证-迭代”的场景。 - 缺点:在线版额度较贵(每天免费额度有限,Pro 版单次消耗较高);App 稳定性还有待提升。 - 小模型本地跑也非常强,性价比极高。 **一句话总结**: MiroThinker 代表了开源 Agent 的新方向——**不靠堆参数,而是靠“会思考、会验证、会交互”**,把“可靠的深度研究”真正带到普通开发者手里。目前最新 1.7 / H1 系列已经把这个理念推到一个新高度,强烈推荐你去 dr.miromind.ai 试试看,或者直接拉下来本地玩。

讨论回复

1 条回复
✨步子哥 (steper) #1
03-27 05:08
**MiroThinker 本地部署教程(最新版 1.7 / 1.7-mini 完整版)** 以下是基于官方 GitHub(MiroMindAI/MiroThinker)和 Hugging Face 最新文档整理的**最完整、最实用**的本地部署教程。支持 **MiroThinker-1.7**(235B MoE)和 **1.7-mini**(30B 激活参数,更易本地跑)。 部署方式采用官方推荐的 **MiroFlow Agent 框架 + SGLang / vLLM 服务模型**,实现完整工具调用、256K 上下文、多步长研究能力。 ### 一、硬件要求(重要!) | 模型版本 | 推荐显存(FP16) | 推荐配置示例 | 备注 | |-------------------|------------------|-------------------------------|------| | MiroThinker-1.7-mini | ≈ 60-80GB | 2×4090 / A6000×2 / H100×1 | 最推荐本地部署 | | MiroThinker-1.7 | ≈ 200GB+ | 8×H100 / H800 集群 | 企业级 | | 量化版(4bit/8bit) | 可降低 50-70% | 单张 4090(mini 版) | 推荐 GGUF 或 vLLM 量化 | - **系统**:Ubuntu 22.04+ / Windows + WSL2(推荐 Linux) - **CUDA**:12.1+(推荐 12.4+) - **磁盘**:至少 300GB(模型权重 + 缓存) ### 二、部署方式对比(选一个) - **推荐**:完整 Agent(MiroFlow + SGLang/vLLM)→ 最佳性能,支持所有工具 - **简单**:Ollama / LM Studio(社区版,仅适合 1.7-mini 体验) - **进阶**:Gradio Web UI / Docker(后期扩展) 下面重点讲**推荐完整部署**(5-15 分钟可跑通)。 ### 三、完整 Agent 部署步骤(推荐) #### 步骤 1:准备环境 ```bash # 1. 安装 uv(比 pip 更快) curl -LsSf https://astral.sh/uv/install.sh | sh # 2. 克隆仓库 git clone https://github.com/MiroMindAI/MiroThinker.git cd MiroThinker # 3. 进入 Agent 目录并安装依赖 cd apps/miroflow-agent uv sync ``` #### 步骤 2:配置 API Keys(工具必备) ```bash cp .env.example .env # 用 VS Code / nano 编辑 .env ``` **最小必需配置**(复制粘贴后替换成你的 Key): ```env # 搜索工具(必填) SERPER_API_KEY=你的_serper_key # https://serper.dev 免费注册 JINA_API_KEY=你的_jina_key # https://jina.ai # 代码执行沙箱(推荐) E2B_API_KEY=你的_e2b_key # https://e2b.dev # 可选(用于总结等) SUMMARY_LLM_BASE_URL="http://localhost:61002/v1" # 后面自己启动的模型 SUMMARY_LLM_MODEL_NAME=mirothinker-v1.7-mini SUMMARY_LLM_API_KEY=dummy ``` **获取 Key**: - Serper:免费 2500 次/月 - Jina:免费额度充足 - E2B:免费沙箱 #### 步骤 3:启动模型服务器(SGLang 推荐,最稳定) ```bash # 新开终端,启动 SGLang 服务(以 1.7-mini 为例) python -m sglang.launch_server \ --model-path miromind-ai/MiroThinker-1.7-mini \ --tp 2 \ # 根据你的 GPU 卡数调整(2卡=2) --host 0.0.0.0 \ --port 61002 \ --trust-remote-code ``` **或者用 vLLM**(更快启动): ```bash vllm serve miromind-ai/MiroThinker-1.7-mini \ --tensor-parallel-size 2 \ --max-model-len 262144 \ --enable-reasoning \ --host 0.0.0.0 \ --port 61002 ``` 服务启动后访问 `http://localhost:61002` 确认 OK。 #### 步骤 4:运行 MiroThinker Agent ```bash # 回到 miroflow-agent 目录 cd ~/MiroThinker/apps/miroflow-agent # 运行单任务(推荐配置) uv run python main.py \ llm=qwen-3 \ agent=mirothinker_1.7_keep5_max200 \ llm.base_url=http://localhost:61002/v1 ``` - **agent 参数推荐**: - `mirothinker_1.7_keep5_max200`:日常研究(最稳) - `mirothinker_1.7_keep5_max300`:BrowseComp 等长任务 **自定义任务**:编辑 `main.py` 第 32 行: ```python task_description = "帮我深度研究一下 2026 年小米汽车的竞品分析和供应链风险" ``` 运行后会自动输出**完整思考链 + 证据来源 + 最终结论**。 ### 四、可选:本地化工具(完全离线) 详见仓库 `assets/LOCAL-TOOL-DEPLOYMENT.md`: - 部署 `tool-transcribe-os`(音频转录) - 部署 `tool-vqa-os`(图像理解) - 部署 `tool-reasoning-os`(本地推理工具) 需要额外 Python 环境和 GPU,适合追求 100% 隐私的用户。 ### 五、简单部署方案(不想配 API Key) 1. **Ollama 社区版**(仅 1.7-mini): - 搜索 Ollama 模型 `huihui_ai/mirothinker1-abliterated` 或类似 - `ollama run mirothinker1` - 但工具调用能力会弱于完整 MiroFlow。 2. **LM Studio**:直接下载 GGUF 量化版拖进去即可聊天(适合快速体验)。 ### 六、常见问题排查 - **显存不够**:用 `--quantization fp8` 或 4bit(vLLM 支持) - **模型加载慢**:第一次会下载权重(几十 GB),之后缓存 - **工具报错**:检查 `.env` 中的 Key 是否正确 - **想用 Web UI**:仓库有 Gradio Demo(`apps/gradio-demo`),可自行启动 - **日志**:所有日志保存在 `../../logs/` 目录 ### 七、部署完成后的测试任务 试试这个经典任务: > “2026 年 3 月最新一篇 arXiv 计算机科学论文标题是什么?它的核心贡献和潜在影响是什么?” 你会看到 MiroThinker 自动搜索、阅读 PDF、验证信息、给出带来源的结论——这就是“深度研究 Agent”的真正实力! **官方仓库**:https://github.com/MiroMindAI/MiroThinker **Hugging Face 模型**:https://huggingface.co/miromind-ai/MiroThinker-1.7-mini