🌱 从“喂得越多越聪明”到“塞得越满越蠢”:一个反直觉的觉醒时刻
想象一下,你正在给一个天才大脑喂饭。你以为盘子越大、菜越多,它就越聪明。于是你端上来满满一桌子菜:昨天的聊天记录、上周的代码、去年写的文档、甚至连WiFi密码都塞进去。结果呢?这个天才开始结巴、犯迷糊、把盐当成糖撒进咖啡里。
这不是科幻,而是2024-2025年无数AI代理团队真实经历的惨剧。
Hugging Face的机器学习工程师Philipp Schmid前几周听完Manus AI和LangChain的两场闭门分享后,彻底被震撼了——Manus团队把自己的代理系统重写了整整五次,最后发现最有效的改动永远是那两个字:
删代码。
是的,你没听错。
不是加功能,不是换更大的模型,不是把上下文窗口从12.8万撑到100万。
而是删。删到出血,删到心疼,删到整个系统突然就“活”了。

🧠 上下文会像牛奶一样变质:一个被遗忘的残酷真相
我们总以为上下文窗口是冰箱——放进去就永远新鲜。
错!它更像一盒没盖盖的牛奶,放在常温下。
研究和实战都证明:即使是最强的模型,当上下文超过20-30万token后,性能也会像自由落体一样崩塌。中间那段信息会变成“毒瘤”,模型会莫名其妙忘记自己三分钟前刚说过的话。这就是社区现在流行的新名词——Context Rot(上下文腐败)。
上下文腐败的典型症状:Manus的工程师们用血泪总结出一句话: “给模型刚好够用的信息,比给它全世界都更重要。”
- 把问题答偏到十万八千里
- 突然开始循环输出同一段废话
- 明明文件已经写好,却死活找不到路径
- 最致命:把正确答案埋在第157页历史里,然后自信地说“没有找到”
🔥 Manus的“三板斧”:删到骨头里,才看到灵魂
他们发现最有效的上下文瘦身术只有两条:

最容易翻车的多代理系统,就是所有人抢同一个共享内存。
A在想代码,B突然插进来一句“用户说想加个暗黑模式”,结果A的整个思路全崩。
Manus直接抄了Go语言那句名言:
“通过通信共享内存,而不是通过共享内存通信。”(Share memory by communicating, not communicate by sharing memory.)
具体做法简单粗暴:
每个子代理有自己独立的上下文,主控Agent只通过结构化消息(JSON)跟他们对话。
就像公司开会,不是每个人都坐在一个大会议室里吵,而是用Slack发消息,干净、清晰、不串味。

给AI 100个工具 = 给一个三岁小孩100把刀。
它一定会拿错,还可能砍到自己。
Manus最终的工具策略只有三层,金字塔一样稳:
research.py的库,AI需要的时候就import research; research.run(query)——干净、确定性极高、不会用错。

🤖 把AI当函数调用,别当同事开会
很多人喜欢给每个子代理起名字:Planner、Researcher、Critic、Executor……
然后让它们像真人一样在群聊里吵架。
Schmid在博客里直接开喷:
“这是最愚蠢的过度拟人化。”
正确的打开方式:
把子代理当成纯函数。
主Agent只管一句:
result = call_researcher(goal="帮我查2025年最新长上下文技术")
子系统跑完返回一个干净的JSON,仅此而已。
没有寒暄,没有“正在思考”,没有表情包。
就像你调用requests.get(),永远不会返回“我正在思考要不要给你数据哦~”。

💰 删完之后,世界突然清晰了
有开发者按照这套思路重构,花了三次才稳定,但最终结果是:
Token消耗下降40%,稳定性大幅提升,bug数量肉眼可见减少。
这不是小数字。
对一个日调用百万次的代理系统来说,40%意味着真金白银的服务器费用,更意味着用户体验从“偶尔抽风”变成“永远可靠”。
🎯 2025年的六条“删代码”戒律(实用清单)
“2025年最好的AI系统,不是能吃下100万token的怪物, 而是用5万token就能完美解决问题的极简主义者。”删,是最高级的加法。 少,即是多。
当所有人都在卷参数、卷上下文窗口、卷工具链的时候,
真正领先的团队,已经在悄悄练习一门新武功——
失忆的艺术。
还没有人回复