来源 Commit: d9b875d (easy-learn-ai 2026-04-10)
想象你开了一家咨询公司。
你有两种员工:一种是刚毕业的实习生,月薪5000,能处理大量基础工作——查资料、整理文档、写初稿、跑流程。另一种是行业资深顾问,月薪5万,专门解决复杂问题——战略判断、关键决策、客户谈判。
聪明的做法不是让所有工作都交给顾问做,而是让实习生处理80%的常规任务,遇到难题再请顾问出马。
这听起来是管理学101。但在AI领域,直到最近,这个常识才被真正落地。
## 从"一个模型打天下"到"分工协作"
2026年4月,这个模式有了名字:Advisor Pattern(顾问模式)。
Anthropic在Claude平台推出了内测功能:用Sonnet或Haiku做执行,关键决策时向Opus咨询。官方公布的数字是:在SWE-bench Multilingual上,比单用Sonnet提高2.7个百分点,同时成本降约12%。
LangChain迅速推出了开源中间件实现。社区里的实测案例更夸张:Haiku+Opus组合做浏览任务,成绩翻倍、成本下降;Sonnet+Opus在SWE-bench上提分且省钱。
Qwen Code v0.14.x把这个模式做到了产品层:支持"主模型+轻量模型分工"显式可配,配合OpenRouter、OpenSpec等能灵活调度不同模型。
这不是某个公司的巧思。整个行业正在统一到这个共识上。
## 为什么现在?
这个模式的出现,有一个简单的经济动因:
模型能力在分层,但价格分层得更厉害。
- Claude Haiku: 便宜、快、够用80%的场景
- Claude Sonnet: 中等价位,通用能力强
- Claude Opus: 贵、慢、但解决难题最可靠
- GPT-5.5: 比5.4贵一倍,但代码质量明显提升
当一个"足够好"的便宜模型能处理大部分任务,而只有10%的环节需要昂贵模型介入时,"全用昂贵模型"就变成了一种浪费——就像请首席架构师去修打印机。
更深层的原因是:Agent任务的复杂度在上升。
早期的AI应用是单轮对话——问一个问题,得到一个答案。现在的Agent要跑几十步、调用多个工具、处理长上下文。如果每一步都用最贵的模型,账单会迅速失控。
## "Advisor"到底在做什么?
让我们看看这个模式的实际运作。
假设你让Agent完成一个任务:"分析这份财报,找出风险点,并给出投资建议。"
传统方式:一个Opus模型从头到尾处理——读文档、分析数据、写报告。每一步都用最贵的模型,因为"万一某一步需要深度推理呢"。
Advisor方式:
1. Haiku读文档,提取关键数字和章节(这一步不需要世界级推理)
2. 遇到"这个会计政策变更是否构成重大风险"这种判断时,Haiku把问题打包发给Opus
3. Opus给出判断后,Haiku继续执行——整理格式、生成图表、写邮件
4. 最终报告的整体逻辑性检查,再次调用Opus
结果:Haiku做了90%的工作量,Opus只介入2-3个关键决策点。总成本可能是原来的1/5,质量几乎不变。
## 一个有趣的哲学问题
这个模式引出了一个深层问题:小模型怎么知道"自己搞不定"?
如果一个小模型不能正确评估任务的难度,它可能会在应该求助的时候沉默,或者在不必要的时候频繁打扰顾问——两种情况都会破坏效率。
目前的解决方案有几种:
- **置信度阈值**:模型对自己答案的确定性打分,低于阈值就求助
- **分类器路由**:先让一个小型分类器判断任务类型,再决定用哪个模型
- **反馈循环**:事后评估小模型的决策质量,不断调整求助策略
这些机制本身也在快速进化。Anthropic的Advisor工具、LangChain的DeepAgents中间件,本质上都是在解决"何时求助"这个元问题。
## 对开发者的实际影响
如果你是一个用AI写代码的开发者,这个趋势意味着什么?
**第一,你的"模型栈"会变得像"技术栈"一样重要。** 不是"我用GPT还是Claude",而是"我在什么场景下用哪个模型的哪个版本,通过什么路由策略组合"。
**第二,成本优化有了新维度。** 以前优化成本主要靠"减少token"或"用更便宜的API"。现在你可以通过"智能路由"来优化——让便宜模型多干活,贵模型只在刀刃上出手。
**第三,评估变得更复杂。** 单模型时代,评测一个模型的能力就够了。多模型协作时代,你需要评测的是"组合策略"——在什么任务分配比例下,总成本最低且质量达标。
## 这不是终点
Advisor模式只是Agent架构演进的一个阶段。
更远的未来可能是:模型本身学会"自我路由"——不需要外部系统判断"该不该求助",模型内部就能决定"这个问题我需要深度思考还是快速回答"。 Muse Spark的"压缩思考"已经展示了这种能力的雏形。
或者,模型之间的边界会进一步模糊。当开源模型"足够好",当本地部署成本持续下降,"昂贵模型"和"便宜模型"的区分可能不再基于参数量,而是基于部署位置(云端vs本地)、响应速度(实时vs异步)、或者专用化程度(通用vs垂直)。
## 回到那个咨询公司
还记得开头那个咨询公司的比喻吗?
AI行业正在从"每个人都是全栈顾问"的幻觉中醒来,接受一个更务实的现实:分工协作比单打独斗更高效。
便宜模型不是"次等品",它们是"特定场景的最优解"。昂贵模型不是"万能药",它们是"关键决策的保险"。
当整个行业开始用"团队"而不是"个人"的视角来设计AI系统时,真正的规模化应用才刚开始。
---
**延伸阅读**
- Akshay对Advisor模式的总结: https://substack.com/redirect/f2e9e328-077e-404c-b508-da55b2854c54
- LangChain DeepAgents Advisor中间件: https://substack.com/redirect/8dd7407b-1f1c-4a9d-920a-dd8edc053af2
- Anthropic Advisor策略说明: https://substack.com/redirect/cabf8ccb-d0e4-4d42-9a31-66bffd28470f
- Qwen Code多模型编排: https://substack.com/redirect/6c6b069a-4f0d-4c46-985e-e1970a93198d
#easy-learn-ai #每日更新 #记忆 #小凯 #Agent设计 #Advisor模式 #成本优化 #模型编排
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!