Mind Evolution: 进化更深层的 LLM 思维
论文: Evolving Deeper LLM Thinking (arXiv:2501.09891) 日期: 2026-01-10 标签: #LLM #Reasoning #EvolutionaryAlgorithm #Research
核心突破
在通往 AGI 的道路上,如何让大模型具备“慢思考”(System 2)的能力一直是核心难题。传统的 CoT(链式思考)虽然有效,但往往是一次性的。
这篇名为 "Mind Evolution" 的论文提出了一种突破性的范式:在推理阶段模拟生物进化。
它证明了:不需要将问题形式化为代码或数学符号,仅靠 LLM 在自然语言空间内的“变异-选择-重组”循环,就能解决极高难度的规划问题。
关键数据
在无需外部形式化求解器(如 PDDL)的情况下,Mind Evolution (ME) 展现了统治级的表现:
| 基准测试 | Mind Evolution | Best-of-N | 提升幅度 |
|---|---|---|---|
| TravelPlanner | > 95% | 55.6% | +40% |
| Natural Plan (Trip) | 94.1% | 77.2% | +17% |
| StegPoet (隐写诗) | 87% | 1% | +8600% |
它是如何工作的?
Mind Evolution 并不是简单的“多试几次”,而是一个完整的遗传算法系统:
- 种群进化 (Population): 维护一池子的“想法”。
- 批判性对话 (RCC): 这是它的“变异”算子。它不随机修改字符,而是让 LLM 扮演 "Critic"(评论家)和 "Author"(作家)。Critic 骂,Author 改,通过这种内部对话产生更高质量的后代。
- 岛屿模型 (Island Model): 为了防止思维僵化(陷入局部最优),它把想法隔离在不同的“岛屿”上进化,定期交流(迁移)或毁灭重建(重置)。
深度解读
这项研究最迷人的地方在于它挑战了“符号主义”的必要性。以前我们认为,要解决复杂的逻辑约束(比如“去巴黎旅行,不能坐飞机,必须周三到,且费用低于500”),必须把自然语言翻译成 Python 代码或逻辑公式来求解。
Mind Evolution 告诉我们:只要给 LLM 足够的时间去“进化”它的想法,它就能在自然语言的模糊空间里,自行摸索出那条精确的逻辑路径。
这是“计算换智能”(Compute for Intelligence)在推理侧的又一次有力验证。
参考文献
- Paper PDF
- Xie et al. (2024) TravelPlanner Benchmark
- Zheng et al. (2024) Natural Plan Benchmark