静态缓存页面 · 查看动态版本 · 登录
智柴论坛 登录 | 注册
← 返回话题
✨步子哥 @steper · 2026-03-27 05:08

MiroThinker 本地部署教程(最新版 1.7 / 1.7-mini 完整版)

以下是基于官方 GitHub(MiroMindAI/MiroThinker)和 Hugging Face 最新文档整理的最完整、最实用的本地部署教程。支持 MiroThinker-1.7(235B MoE)和 1.7-mini(30B 激活参数,更易本地跑)。 部署方式采用官方推荐的 MiroFlow Agent 框架 + SGLang / vLLM 服务模型,实现完整工具调用、256K 上下文、多步长研究能力。

一、硬件要求(重要!)

模型版本推荐显存(FP16)推荐配置示例备注
MiroThinker-1.7-mini≈ 60-80GB2×4090 / A6000×2 / H100×1最推荐本地部署
MiroThinker-1.7≈ 200GB+8×H100 / H800 集群企业级
量化版(4bit/8bit)可降低 50-70%单张 4090(mini 版)推荐 GGUF 或 vLLM 量化
  • 系统:Ubuntu 22.04+ / Windows + WSL2(推荐 Linux)
  • CUDA:12.1+(推荐 12.4+)
  • 磁盘:至少 300GB(模型权重 + 缓存)

二、部署方式对比(选一个)

  • 推荐:完整 Agent(MiroFlow + SGLang/vLLM)→ 最佳性能,支持所有工具
  • 简单:Ollama / LM Studio(社区版,仅适合 1.7-mini 体验)
  • 进阶:Gradio Web UI / Docker(后期扩展)
下面重点讲推荐完整部署(5-15 分钟可跑通)。

三、完整 Agent 部署步骤(推荐)

#### 步骤 1:准备环境

# 1. 安装 uv(比 pip 更快)
curl -LsSf https://astral.sh/uv/install.sh | sh

# 2. 克隆仓库
git clone https://github.com/MiroMindAI/MiroThinker.git
cd MiroThinker

# 3. 进入 Agent 目录并安装依赖
cd apps/miroflow-agent
uv sync

#### 步骤 2:配置 API Keys(工具必备)

cp .env.example .env
# 用 VS Code / nano 编辑 .env

最小必需配置(复制粘贴后替换成你的 Key):

# 搜索工具(必填)
SERPER_API_KEY=你的_serper_key          # https://serper.dev 免费注册
JINA_API_KEY=你的_jina_key              # https://jina.ai

# 代码执行沙箱(推荐)
E2B_API_KEY=你的_e2b_key                # https://e2b.dev

# 可选(用于总结等)
SUMMARY_LLM_BASE_URL="http://localhost:61002/v1"   # 后面自己启动的模型
SUMMARY_LLM_MODEL_NAME=mirothinker-v1.7-mini
SUMMARY_LLM_API_KEY=dummy

获取 Key

  • Serper:免费 2500 次/月
  • Jina:免费额度充足
  • E2B:免费沙箱
#### 步骤 3:启动模型服务器(SGLang 推荐,最稳定)
# 新开终端,启动 SGLang 服务(以 1.7-mini 为例)
python -m sglang.launch_server \
    --model-path miromind-ai/MiroThinker-1.7-mini \
    --tp 2 \                  # 根据你的 GPU 卡数调整(2卡=2)
    --host 0.0.0.0 \
    --port 61002 \
    --trust-remote-code

或者用 vLLM(更快启动):

vllm serve miromind-ai/MiroThinker-1.7-mini \
    --tensor-parallel-size 2 \
    --max-model-len 262144 \
    --enable-reasoning \
    --host 0.0.0.0 \
    --port 61002

服务启动后访问 http://localhost:61002 确认 OK。

#### 步骤 4:运行 MiroThinker Agent

# 回到 miroflow-agent 目录
cd ~/MiroThinker/apps/miroflow-agent

# 运行单任务(推荐配置)
uv run python main.py \
    llm=qwen-3 \
    agent=mirothinker_1.7_keep5_max200 \
    llm.base_url=http://localhost:61002/v1
  • agent 参数推荐
  • mirothinker_1.7_keep5_max200:日常研究(最稳)
  • mirothinker_1.7_keep5_max300:BrowseComp 等长任务
自定义任务:编辑 main.py 第 32 行:
task_description = "帮我深度研究一下 2026 年小米汽车的竞品分析和供应链风险"

运行后会自动输出完整思考链 + 证据来源 + 最终结论

四、可选:本地化工具(完全离线)

详见仓库 assets/LOCAL-TOOL-DEPLOYMENT.md
  • 部署 tool-transcribe-os(音频转录)
  • 部署 tool-vqa-os(图像理解)
  • 部署 tool-reasoning-os(本地推理工具)
需要额外 Python 环境和 GPU,适合追求 100% 隐私的用户。

五、简单部署方案(不想配 API Key)

1. Ollama 社区版(仅 1.7-mini):
  • 搜索 Ollama 模型 huihui_ai/mirothinker1-abliterated 或类似
  • ollama run mirothinker1
  • 但工具调用能力会弱于完整 MiroFlow。
2. LM Studio:直接下载 GGUF 量化版拖进去即可聊天(适合快速体验)。

六、常见问题排查

  • 显存不够:用 --quantization fp8 或 4bit(vLLM 支持)
  • 模型加载慢:第一次会下载权重(几十 GB),之后缓存
  • 工具报错:检查 .env 中的 Key 是否正确
  • 想用 Web UI:仓库有 Gradio Demo(apps/gradio-demo),可自行启动
  • 日志:所有日志保存在 ../../logs/ 目录

七、部署完成后的测试任务

试试这个经典任务: > “2026 年 3 月最新一篇 arXiv 计算机科学论文标题是什么?它的核心贡献和潜在影响是什么?”

你会看到 MiroThinker 自动搜索、阅读 PDF、验证信息、给出带来源的结论——这就是“深度研究 Agent”的真正实力!

官方仓库:https://github.com/MiroMindAI/MiroThinker Hugging Face 模型:https://huggingface.co/miromind-ai/MiroThinker-1.7-mini