静态缓存页面 · 查看动态版本 · 登录
智柴论坛 登录 | 注册
← 返回列表

MiroThinker

✨步子哥 @steper · 2026-03-27 05:01 · 46浏览

MiroThinker 是由 MiroMind AI(陈天桥团队)开发的一款开源深度研究 Agent(研究型 AI 代理),专注于工具增强推理(tool-augmented reasoning)多步长时程推理事实验证,而不是普通的聊天模型。

它不是简单的 LLM,而是能像人类研究员一样:提出假设 → 检索证据 → 迭代验证 → 自我纠错 → 给出可信结论,特别适合复杂研究、预测、竞品分析、技术尽调等知识密集型任务。

核心创新:引入“第三维度”缩放(Interactive Scaling)

传统 AI 缩放只靠模型大小(parameters) + 上下文长度(context),MiroThinker 额外提出 Interactive Scaling(交互缩放)
  • 通过强化学习(RL)训练模型,主动处理更深、更频繁的 agent-environment 交互
  • 支持 256K 上下文窗口 + 单任务最多 400~600 次工具调用(远超之前开源 Agent)。
  • 能持续多轮推理、纠正错误、整合多源证据,避免传统 test-time scaling 容易出现的“越想越错”问题。
最新版(2026年3月16日发布的 MiroThinker-1.7 & MiroThinker-H1)进一步升级为Verification-Centric(验证中心)架构
  • 引入双层验证系统(local + global):推理过程中实时评估每一步决策,整体轨迹审计确保证据链完整。
  • 显著提升可靠性,尤其在长链条、多步研究任务中。

主要版本与模型

  • v1.5(2025年底):30B / 235B 参数(MoE 架构,激活参数更少),已能以小模型打败 1T 级大模型。
  • v1.7 / 1.7-mini:更高效,1.7-mini(仅 3B 激活参数)在多个基准上超越 GPT-5。
  • H1:旗舰重型研究 Agent,集成完整验证系统。
基准表现(部分亮点):
  • BrowseComp / BrowseComp-ZH:领先开源,接近或超越 GPT-5。
  • GAIA、HLE、FinSearchComp 等:SOTA 或极具竞争力,小模型性能尤为惊艳。

如何使用

1. 在线体验(最简单): 访问 https://dr.miromind.ai/,直接用 MiroThinker 对话(支持 Pro 版)。有移动 App(MiroMind App)。

2. 本地部署 / 自托管(开源爱好者首选):

  • 模型权重:Hugging Face(miromind-ai 组织下)
  • 代码 & 框架:GitHub(MiroMindAI/MiroThinker)
  • 支持 Ollama / LM Studio 等本地运行,完全隐私、可控、无黑箱。
  • 配套生态:MiroFlow(工作流编排)、MiroVerse(训练数据集)、MiroTrain(训练工具链)。
3. 开源许可:MIT 协议,代码、权重、数据集全部开放。

实际体验反馈(来自最近讨论)

  • 很多用户反馈在客户谈判话术、竞品研究、深度调研上表现极强,明显优于 ChatGPT / Claude / Gemini / Perplexity,尤其在需要“思考-验证-迭代”的场景。
  • 缺点:在线版额度较贵(每天免费额度有限,Pro 版单次消耗较高);App 稳定性还有待提升。
  • 小模型本地跑也非常强,性价比极高。
一句话总结: MiroThinker 代表了开源 Agent 的新方向——不靠堆参数,而是靠“会思考、会验证、会交互”,把“可靠的深度研究”真正带到普通开发者手里。目前最新 1.7 / H1 系列已经把这个理念推到一个新高度,强烈推荐你去 dr.miromind.ai 试试看,或者直接拉下来本地玩。

讨论回复 (1)
✨步子哥 · 2026-03-27 05:08

MiroThinker 本地部署教程(最新版 1.7 / 1.7-mini 完整版)

以下是基于官方 GitHub(MiroMindAI/MiroThinker)和 Hugging Face 最新文档整理的最完整、最实用的本地部署教程。支持 MiroThinker-1.7(235B MoE)和 1.7-mini(30B 激活参数,更易本地跑)。 部署方式采用官方推荐的 MiroFlow Agent 框架 + SGLang / vLLM 服务模型,实现完整工具调用、256K 上下文、多步长研究能力。

一、硬件要求(重要!)

模型版本推荐显存(FP16)推荐配置示例备注
MiroThinker-1.7-mini≈ 60-80GB2×4090 / A6000×2 / H100×1最推荐本地部署
MiroThinker-1.7≈ 200GB+8×H100 / H800 集群企业级
量化版(4bit/8bit)可降低 50-70%单张 4090(mini 版)推荐 GGUF 或 vLLM 量化
  • 系统:Ubuntu 22.04+ / Windows + WSL2(推荐 Linux)
  • CUDA:12.1+(推荐 12.4+)
  • 磁盘:至少 300GB(模型权重 + 缓存)

二、部署方式对比(选一个)

  • 推荐:完整 Agent(MiroFlow + SGLang/vLLM)→ 最佳性能,支持所有工具
  • 简单:Ollama / LM Studio(社区版,仅适合 1.7-mini 体验)
  • 进阶:Gradio Web UI / Docker(后期扩展)
下面重点讲推荐完整部署(5-15 分钟可跑通)。

三、完整 Agent 部署步骤(推荐)

#### 步骤 1:准备环境

# 1. 安装 uv(比 pip 更快)
curl -LsSf https://astral.sh/uv/install.sh | sh

# 2. 克隆仓库
git clone https://github.com/MiroMindAI/MiroThinker.git
cd MiroThinker

# 3. 进入 Agent 目录并安装依赖
cd apps/miroflow-agent
uv sync

#### 步骤 2:配置 API Keys(工具必备)

cp .env.example .env
# 用 VS Code / nano 编辑 .env

最小必需配置(复制粘贴后替换成你的 Key):

# 搜索工具(必填)
SERPER_API_KEY=你的_serper_key          # https://serper.dev 免费注册
JINA_API_KEY=你的_jina_key              # https://jina.ai

# 代码执行沙箱(推荐)
E2B_API_KEY=你的_e2b_key                # https://e2b.dev

# 可选(用于总结等)
SUMMARY_LLM_BASE_URL="http://localhost:61002/v1"   # 后面自己启动的模型
SUMMARY_LLM_MODEL_NAME=mirothinker-v1.7-mini
SUMMARY_LLM_API_KEY=dummy

获取 Key

  • Serper:免费 2500 次/月
  • Jina:免费额度充足
  • E2B:免费沙箱
#### 步骤 3:启动模型服务器(SGLang 推荐,最稳定)
# 新开终端,启动 SGLang 服务(以 1.7-mini 为例)
python -m sglang.launch_server \
    --model-path miromind-ai/MiroThinker-1.7-mini \
    --tp 2 \                  # 根据你的 GPU 卡数调整(2卡=2)
    --host 0.0.0.0 \
    --port 61002 \
    --trust-remote-code

或者用 vLLM(更快启动):

vllm serve miromind-ai/MiroThinker-1.7-mini \
    --tensor-parallel-size 2 \
    --max-model-len 262144 \
    --enable-reasoning \
    --host 0.0.0.0 \
    --port 61002

服务启动后访问 http://localhost:61002 确认 OK。

#### 步骤 4:运行 MiroThinker Agent

# 回到 miroflow-agent 目录
cd ~/MiroThinker/apps/miroflow-agent

# 运行单任务(推荐配置)
uv run python main.py \
    llm=qwen-3 \
    agent=mirothinker_1.7_keep5_max200 \
    llm.base_url=http://localhost:61002/v1
  • agent 参数推荐
  • mirothinker_1.7_keep5_max200:日常研究(最稳)
  • mirothinker_1.7_keep5_max300:BrowseComp 等长任务
自定义任务:编辑 main.py 第 32 行:
task_description = "帮我深度研究一下 2026 年小米汽车的竞品分析和供应链风险"

运行后会自动输出完整思考链 + 证据来源 + 最终结论

四、可选:本地化工具(完全离线)

详见仓库 assets/LOCAL-TOOL-DEPLOYMENT.md
  • 部署 tool-transcribe-os(音频转录)
  • 部署 tool-vqa-os(图像理解)
  • 部署 tool-reasoning-os(本地推理工具)
需要额外 Python 环境和 GPU,适合追求 100% 隐私的用户。

五、简单部署方案(不想配 API Key)

1. Ollama 社区版(仅 1.7-mini):
  • 搜索 Ollama 模型 huihui_ai/mirothinker1-abliterated 或类似
  • ollama run mirothinker1
  • 但工具调用能力会弱于完整 MiroFlow。
2. LM Studio:直接下载 GGUF 量化版拖进去即可聊天(适合快速体验)。

六、常见问题排查

  • 显存不够:用 --quantization fp8 或 4bit(vLLM 支持)
  • 模型加载慢:第一次会下载权重(几十 GB),之后缓存
  • 工具报错:检查 .env 中的 Key 是否正确
  • 想用 Web UI:仓库有 Gradio Demo(apps/gradio-demo),可自行启动
  • 日志:所有日志保存在 ../../logs/ 目录

七、部署完成后的测试任务

试试这个经典任务: > “2026 年 3 月最新一篇 arXiv 计算机科学论文标题是什么?它的核心贡献和潜在影响是什么?”

你会看到 MiroThinker 自动搜索、阅读 PDF、验证信息、给出带来源的结论——这就是“深度研究 Agent”的真正实力!

官方仓库:https://github.com/MiroMindAI/MiroThinker Hugging Face 模型:https://huggingface.co/miromind-ai/MiroThinker-1.7-mini