MiroThinker 本地部署教程(最新版 1.7 / 1.7-mini 完整版)
以下是基于官方 GitHub(MiroMindAI/MiroThinker)和 Hugging Face 最新文档整理的最完整、最实用的本地部署教程。支持 MiroThinker-1.7(235B MoE)和 1.7-mini(30B 激活参数,更易本地跑)。
部署方式采用官方推荐的 MiroFlow Agent 框架 + SGLang / vLLM 服务模型,实现完整工具调用、256K 上下文、多步长研究能力。
一、硬件要求(重要!)
| 模型版本 | 推荐显存(FP16) | 推荐配置示例 | 备注 |
|---|
| MiroThinker-1.7-mini | ≈ 60-80GB | 2×4090 / A6000×2 / H100×1 | 最推荐本地部署 |
| MiroThinker-1.7 | ≈ 200GB+ | 8×H100 / H800 集群 | 企业级 |
| 量化版(4bit/8bit) | 可降低 50-70% | 单张 4090(mini 版) | 推荐 GGUF 或 vLLM 量化 |
- 系统:Ubuntu 22.04+ / Windows + WSL2(推荐 Linux)
- CUDA:12.1+(推荐 12.4+)
- 磁盘:至少 300GB(模型权重 + 缓存)
二、部署方式对比(选一个)
- 推荐:完整 Agent(MiroFlow + SGLang/vLLM)→ 最佳性能,支持所有工具
- 简单:Ollama / LM Studio(社区版,仅适合 1.7-mini 体验)
- 进阶:Gradio Web UI / Docker(后期扩展)
下面重点讲
推荐完整部署(5-15 分钟可跑通)。
三、完整 Agent 部署步骤(推荐)
#### 步骤 1:准备环境
# 1. 安装 uv(比 pip 更快)
curl -LsSf https://astral.sh/uv/install.sh | sh
# 2. 克隆仓库
git clone https://github.com/MiroMindAI/MiroThinker.git
cd MiroThinker
# 3. 进入 Agent 目录并安装依赖
cd apps/miroflow-agent
uv sync
#### 步骤 2:配置 API Keys(工具必备)
cp .env.example .env
# 用 VS Code / nano 编辑 .env
最小必需配置(复制粘贴后替换成你的 Key):
# 搜索工具(必填)
SERPER_API_KEY=你的_serper_key # https://serper.dev 免费注册
JINA_API_KEY=你的_jina_key # https://jina.ai
# 代码执行沙箱(推荐)
E2B_API_KEY=你的_e2b_key # https://e2b.dev
# 可选(用于总结等)
SUMMARY_LLM_BASE_URL="http://localhost:61002/v1" # 后面自己启动的模型
SUMMARY_LLM_MODEL_NAME=mirothinker-v1.7-mini
SUMMARY_LLM_API_KEY=dummy
获取 Key:
- Serper:免费 2500 次/月
- Jina:免费额度充足
- E2B:免费沙箱
#### 步骤 3:启动模型服务器(SGLang 推荐,最稳定)
# 新开终端,启动 SGLang 服务(以 1.7-mini 为例)
python -m sglang.launch_server \
--model-path miromind-ai/MiroThinker-1.7-mini \
--tp 2 \ # 根据你的 GPU 卡数调整(2卡=2)
--host 0.0.0.0 \
--port 61002 \
--trust-remote-code
或者用 vLLM(更快启动):
vllm serve miromind-ai/MiroThinker-1.7-mini \
--tensor-parallel-size 2 \
--max-model-len 262144 \
--enable-reasoning \
--host 0.0.0.0 \
--port 61002
服务启动后访问 http://localhost:61002 确认 OK。
#### 步骤 4:运行 MiroThinker Agent
# 回到 miroflow-agent 目录
cd ~/MiroThinker/apps/miroflow-agent
# 运行单任务(推荐配置)
uv run python main.py \
llm=qwen-3 \
agent=mirothinker_1.7_keep5_max200 \
llm.base_url=http://localhost:61002/v1
- agent 参数推荐:
mirothinker_1.7_keep5_max200:日常研究(最稳)
mirothinker_1.7_keep5_max300:BrowseComp 等长任务
自定义任务:编辑
main.py 第 32 行:
task_description = "帮我深度研究一下 2026 年小米汽车的竞品分析和供应链风险"
运行后会自动输出完整思考链 + 证据来源 + 最终结论。
四、可选:本地化工具(完全离线)
详见仓库
assets/LOCAL-TOOL-DEPLOYMENT.md:
- 部署
tool-transcribe-os(音频转录)
- 部署
tool-vqa-os(图像理解)
- 部署
tool-reasoning-os(本地推理工具)
需要额外 Python 环境和 GPU,适合追求 100% 隐私的用户。
五、简单部署方案(不想配 API Key)
1.
Ollama 社区版(仅 1.7-mini):
- 搜索 Ollama 模型
huihui_ai/mirothinker1-abliterated 或类似
ollama run mirothinker1
- 但工具调用能力会弱于完整 MiroFlow。
2.
LM Studio:直接下载 GGUF 量化版拖进去即可聊天(适合快速体验)。
六、常见问题排查
- 显存不够:用
--quantization fp8 或 4bit(vLLM 支持)
- 模型加载慢:第一次会下载权重(几十 GB),之后缓存
- 工具报错:检查
.env 中的 Key 是否正确
- 想用 Web UI:仓库有 Gradio Demo(
apps/gradio-demo),可自行启动
- 日志:所有日志保存在
../../logs/ 目录
七、部署完成后的测试任务
试试这个经典任务:
> “2026 年 3 月最新一篇 arXiv 计算机科学论文标题是什么?它的核心贡献和潜在影响是什么?”
你会看到 MiroThinker 自动搜索、阅读 PDF、验证信息、给出带来源的结论——这就是“深度研究 Agent”的真正实力!
官方仓库:https://github.com/MiroMindAI/MiroThinker
Hugging Face 模型:https://huggingface.co/miromind-ai/MiroThinker-1.7-mini