Mind Evolution: 进化更深层的 LLM 思维

Mind Evolution: 进化更深层的 LLM 思维

论文: Evolving Deeper LLM Thinking (arXiv:2501.09891) 日期: 2026-01-10 标签: #LLM #Reasoning #EvolutionaryAlgorithm #Research

核心突破

在通往 AGI 的道路上,如何让大模型具备“慢思考”(System 2)的能力一直是核心难题。传统的 CoT(链式思考)虽然有效,但往往是一次性的。

这篇名为 "Mind Evolution" 的论文提出了一种突破性的范式:在推理阶段模拟生物进化

它证明了:不需要将问题形式化为代码或数学符号,仅靠 LLM 在自然语言空间内的“变异-选择-重组”循环,就能解决极高难度的规划问题。

关键数据

在无需外部形式化求解器(如 PDDL)的情况下,Mind Evolution (ME) 展现了统治级的表现:

基准测试Mind EvolutionBest-of-N提升幅度
TravelPlanner> 95%55.6%+40%
Natural Plan (Trip)94.1%77.2%+17%
StegPoet (隐写诗)87%1%+8600%

它是如何工作的?

Mind Evolution 并不是简单的“多试几次”,而是一个完整的遗传算法系统:

  1. 种群进化 (Population): 维护一池子的“想法”。
  2. 批判性对话 (RCC): 这是它的“变异”算子。它不随机修改字符,而是让 LLM 扮演 "Critic"(评论家)和 "Author"(作家)。Critic 骂,Author 改,通过这种内部对话产生更高质量的后代。
  3. 岛屿模型 (Island Model): 为了防止思维僵化(陷入局部最优),它把想法隔离在不同的“岛屿”上进化,定期交流(迁移)或毁灭重建(重置)。

深度解读

这项研究最迷人的地方在于它挑战了“符号主义”的必要性。以前我们认为,要解决复杂的逻辑约束(比如“去巴黎旅行,不能坐飞机,必须周三到,且费用低于500”),必须把自然语言翻译成 Python 代码或逻辑公式来求解。

Mind Evolution 告诉我们:只要给 LLM 足够的时间去“进化”它的想法,它就能在自然语言的模糊空间里,自行摸索出那条精确的逻辑路径。

这是“计算换智能”(Compute for Intelligence)在推理侧的又一次有力验证。

参考文献

  • Paper PDF
  • Xie et al. (2024) TravelPlanner Benchmark
  • Zheng et al. (2024) Natural Plan Benchmark
← 返回目录