## 🌫️ **开场:在人类脑海的雾中,答案从来不是一条路**
想象你站在一道数学题前,像站在一团浓雾里。你并不会立刻坚定地迈向某条小径——更常见的是,你的脑子会同时浮现几种可能的下一步:要不要换元?要不要画图?是不是可以反证?这些“岔路”并不会立刻被你扔掉,而是以一种轻柔的方式并存着,直到某个线索让其中一条路变得更亮。
论文 **《Multiplex Thinking: Reasoning via Token-wise Branch-and-Merge》**(Tang et al., 2026)抓住的正是这件事:**人类常常“软推理”(soft reasoning)——保留一个关于下一步的概率分布;而大语言模型的标准Chain-of-Thought(CoT)更像“硬推理”——每一步都必须选一个离散token,像在岔路口强行拍板。**
CoT确实有效,但它有个难以忽视的代价:**推理序列长、token开销大、探索效率低**。更糟的是,如果我们希望用强化学习(RL)去优化推理(尤其是需要“试错”的 on-policy RL),离散CoT那种“先走到底再回头”的深度优先搜索(DFS)式探索,会把算力烧得像篝火晚会。
于是作者提出了一个颇具科幻感的主意:**让每一步推理不再只走一条路,而是同时走K条路,但只花一个token的长度。**他们把这种机制命名为——**Multiplex Thinking(复用式思考)**。
基于此,我们接下来要讲一个“token分身术”的故事:它如何做到“分叉-合并”,如何让连续表示与离散采样握手言和,又为什么这恰好补上了RL最需要的那块拼图。
---
## 🧩 **CoT的“低带宽”:为什么推理越长越像在打字复读机**
CoT的基本形式很简单:模型先生成一串“思考token”(thinking trace),再输出最终答案。论文用符号写得很清楚:给定问题 $q=(q_1,\dots,q_L)$,模型 $\pi_\theta$ 先生成思考序列 $t$,再生成答案 $y$:
- 思考:$t_i \sim \pi_\theta(e(q), e(t_{<i}))$
- 答案:$y_i \sim \pi_\theta(e(q), e(t), e(y_{<i}))$
这里 $E\in\mathbb{R}^{|V|\times d}$ 是词表嵌入矩阵,$e(k)=E[k]$ 是token $k$的embedding。
问题在于:**每一步 $t_i$ 都必须采样一个离散token**。这意味着:
1. 模型下一步的完整分布(可能包含大量“差一点点就对”的候选)被压扁成一个符号。
2. 你想探索多个可能路径,只能多采几条完整CoT轨迹——每条都很长、很贵。
3. 探索更像DFS:每次采样都“押注”一条路,走错了就浪费整条轨迹。
> **小贴士**:所谓“低带宽”,并不是说token本身信息量低,而是指**每个时间步只能传递一个离散选择**,很难在同样长度下携带“多种可能性并存”的状态。
这也是为什么近年来出现了“连续推理token”的研究:希望一个token就能塞进更多信息,让推理更省token、更像“把分布保留下来”。
---
## 🧪 **Soft Thinking的温柔与硬伤:连续token很好,但它不爱冒险**
论文提到的关键对照基线之一是 **Soft Thinking(Zhang et al., 2025)**。它的核心做法是:不用采样离散token,而是把下一步分布 $p_i$ 当权重,对整个词表embedding做加权平均,得到连续的“概念token”:
$$
c_i = \sum_{k\in V} p_i(k)\, e(k).
$$
这招非常“温柔”:它保留了分布信息,也更省token(某种意义上“一个向量顶多个token的表达力”)。但它有一个致命弱点——**确定性(determinism)**。
同样的上下文 → 同样的分布 → 同样的 $c_i$。
这意味着:**你再怎么rollout,轨迹几乎都是一样的**。
而强化学习,尤其是on-policy RL(论文里用的是GRPO,属于PPO家族思想)最需要的恰恰是:**随机性带来的探索**。没有探索,你就像在赌场里永远只押同一注,输赢都学不到新东西。
作者的判断非常直接:
**连续推理token必须是“基于采样的随机连续token”,否则就和RL天然不合拍。**
---
## 🌱 **Multiplex Thinking的核心魔法:每一步采K次,但只走一步**
Multiplex Thinking的设计非常“工程师浪漫”:它不抛弃离散采样(那是RL的生命线),也不放弃连续表示(那是token效率的希望),而是把两者缝在一起。
### **1)每一步:独立采样K个候选token**
在推理第 $i$ 步,模型从分布 $\pi_\theta(\cdot\mid e(q), c_{<i})$ **独立采样K次**:
$$
k_{i,1}, k_{i,2}, \dots, k_{i,K} \sim \pi_\theta(\cdot\mid e(q), c_{<i}).
$$
你可以把它想象成:同一个岔路口,模型同时派出K个“分身”去试探下一步可能走向。
### **2)把K个离散token合并成一个“multiplex token”**
作者先把采样得到的K个token转为one-hot向量 $z_{i,j}$,再平均:
$$
s_i=\frac{1}{K}\sum_{j=1}^K z_{i,j}.
$$
- 当 $K=1$:$s_i=z_{i,1}$,退化为普通离散CoT。
- 当 $K\to\infty$:经验分布趋近于LM head给出的真实分布。
然后把 $s_i$ 映射回embedding空间,并加入一个词表空间的权重向量 $w_i$:
$$
c_i = E^\top (s_i \odot w_i).
$$
这里作者讨论了两种 $w_i$:
- **Uniform averaging**:$w_i[v]=1$,就是直接平均embedding。
- **LM-head reweighting(默认)**:只对被采样到的token重新按概率加权并缩放,使表示更贴近模型“自信程度”。
> **小贴士**:直观上,LM-head reweighting就像在“被抽中的候选”里再做一次“按原始概率的加权投票”,让合并后的向量更尊重模型的信念结构。
### **3)最关键的性质:自适应**
作者强调Multiplex Thinking是 **self-adaptive** 的:
- 当模型很自信(分布熵低、logits尖锐),K次采样往往都抽到同一个token → multiplex token几乎就是一个离散token → 行为接近标准CoT。
- 当模型不确定(熵高),采样会出现分歧 → multiplex token把多条可能性压缩进一个向量 → 不增加序列长度,却保留了“分岔”。
这听起来像一种“自动变速器”:路况简单就一脚油门直走,路口复杂就挂低档慢慢探路,但无论如何你的行程长度不膨胀。
---
## 🎲 **概率语义与RL:为什么这次连续token终于能“被训练”**
前面说连续token方法常与RL不合拍,一个原因是:你很难定义“连续token轨迹”的概率,从而难以写出标准的策略梯度目标。
Multiplex Thinking最漂亮的一笔在于:**它仍然由K个独立离散采样组成**,所以概率可以显式写出来,并且天然因子化。
论文给出整条multiplex思考轨迹 $c$ 的对数概率:
$$
\log \pi(c \mid e(q)) = \sum_{i=1}^{|c|}\sum_{j=1}^K \log \pi_\theta(k_{i,j}\mid e(q), c_{<i}).
$$
注意:这里的 $c_i$ 是连续向量,但它背后对应的“生成动作”是 $(k_{i,1},\dots,k_{i,K})$ 这个离散复合动作;而在独立采样假设下,联合概率就是乘积,log就是求和。
有了这条链路,作者就能定义一个直接优化multiplex轨迹的强化学习目标(结合RLVR的可验证奖励):
$$
J_{\text{RL}}(\theta) =
\mathbb{E}_{(q,y^\star)\sim D,\; c\sim\pi_\theta(\cdot|q),\; y\sim\pi_\theta(\cdot|q,c)}
\left[ \big(\log \pi_\theta(c|e(q)) + \log \pi_\theta(y|e(q),c)\big)\cdot v(y,y^\star)\right].
$$
这里 $v(y,y^\star)$ 是可验证奖励(答对/答错之类),与论文背景中的RLVR一致。
> **小贴士**:你可以把它看成“把推理(thinking trace)本身也当作策略的一部分”,奖励不仅影响最终答案生成,也反向塑形推理过程的采样分布。
---
## 🌡️ **熵的故事:探索体积从 |V| 变成 |V|^K**
如果说上面是“可训练性”的数学支柱,那么熵分析就是“为什么更会探索”的解释。
离散CoT在第 $i$ 步采样一个token,其熵是标准香农熵:
$$
H_{\text{CoT}}(i) = -\sum_{v\in V}\pi_\theta(v\mid q,t_{<i})\log \pi_\theta(v\mid q,t_{<i}).
$$
Multiplex Thinking在一步里采K次,构成复合动作 $K_i=\{k_{i,1},\dots,k_{i,K}\}$,在独立假设下联合熵为:
$$
H(K_i)=K\cdot H(\pi_\theta(q,c_{<i})).
$$
这条结论非常直觉:采样K次就像你把“探索的骰子”掷了K遍。熵线性增长,对应的有效探索空间从 $|V|$ 级别膨胀到 $|V|^K$。
作者把这描述为:Multiplex Thinking能在连续空间里编码K条路径的“叠加态”,更像广度优先(BFS)地保留多个可能,而不是离散CoT那种一条路走到黑。
---
## 🏗️ **实验舞台:两种骨干、六个数据集、一套RL训练**
论文的实验设置相当清晰,核心点包括:
### **模型骨干**
- DeepSeek-R1-Distill-Qwen-1.5B
- DeepSeek-R1-Distill-Qwen-7B
### **训练方法**
- 使用 **GRPO (Group Relative Policy Optimization)**
- 训练300 steps,batch size 128
- 学习率 $1\times 10^{-6}$
- KL penalty = 0,entropy penalty = 0
- 最大响应长度 4096
- 训练时每题rollout 8条,temperature 1.0,top-p 1.0
### **评测数据集(6个)**
AIME 2024、AIME 2025、AMC 2023、MATH-500、Minerva Math、OlympiadBench
### **对比基线**
- Discrete CoT(不训练的标准CoT)
- Stochastic Soft Thinking(Wu et al., 2025,使用Gumbel-Softmax注入随机性)
- Discrete RL(用相同GRPO训练但仍是离散token推理)
- Multiplex Thinking(本文方法)
---
## 🏁 **结果一:Pass@1——短而更准的推理**
表1给出的Pass@1结果是论文的主战绩。以7B为例(单位%):
- AIME 2024:CoT 15.7,Soft 20.3,Discrete RL 17.2,**Multiplex 20.6**
- AIME 2025:16.0 / 19.1 / 17.1 / **19.7**
- AMC 2023:42.4 / 47.9 / 44.7 / **50.7**
- MATH-500:71.6 / 76.5 / 74.1 / **78.0**
- Minerva:33.3 / 37.2 / 35.3 / **38.6**
- OlympiadBench:35.6 / 40.6 / 38.0 / **41.7**
论文强调:**Multiplex Thinking在12个设置里拿下11个最好**,并且在所有任务上都超过同训练设置的Discrete RL,这说明收益并非“只是因为RL”,而是来自multiplex token表示带来的探索与压缩。
---
## 📈 **结果二:Pass@k到1024——探索预算越大,差距越像拉开的海沟**
Pass@k(k从1到1024)衡量的是:你采样k条轨迹,至少有一条答对的概率。它常被用作“模型探索上限”的代理。
论文图2显示:在难题上,Multiplex Thinking的曲线随着k增长持续上升,而离散RL更早平台化。例如在 **AIME 2025 (7B)**:
- Discrete RL大约在40%附近停滞
- Multiplex Thinking继续爬升到约55%(k=1024)
作者的解释是:**multiplex表示扩展了可行搜索空间**,让那些在离散空间里“概率极小”的正确路径,有机会在叠加态中被保留并最终浮出水面。
同时,难度依赖也很明显:
- 像MATH-500这种相对“解空间密集”的任务,大家都很快接近天花板,收益有限;
- 像AIME 2025、OlympiadBench这类“解空间稀疏”的任务,multiplex保留不确定性的能力更关键,曲线差距越拉越大。
---
## 🧱 **宽度K:从打破瓶颈到边际递减**
Multiplex Thinking的关键超参是宽度 $K$(每步采样多少token)。论文在7B上测试 $K\in\{1,2,3,6\}$,其中 $K=1$ 就是离散RL。
结论非常一致:
- **K≥2** 就能显著提升(“打破单token瓶颈”)
- 从2→3→6仍有提升,但**边际收益递减**
- 论文主实验默认 **K=3**,认为它通常足以覆盖高概率模式
这点很像现实世界的“多线程头脑”:多想一个备选往往收益巨大,但把备选从3个加到30个,增益就没那么惊艳了。
---
## ⏱️ **算力交换率:用更宽的token,换更短的序列**
Multiplex Thinking的另一个亮点是“token效率”。论文用两组证据说明:
1. **Table 3:长度预算对比**
- Discrete CoT-4k:平均准确率 35.8
- Discrete CoT-5k:39.6(多25%长度,+2.8)
- Multiplex Thinking-I-4k:**40.5**(同4k长度,却比CoT-5k还高)
这说明:**提升并不等同于“多写点思考”**,也可以来自“每个token更能装信息”。
2. **Figure 5:训练过程中的响应长度动态**
Multiplex Thinking在训练中平均生成更短的响应,但准确率更高,符合“信息密度更高”的直觉:一个multiplex token携带了多条路径的暗流。
---
## 🧠 **熵不那么快塌:RL训练里的“耐心探索”**
论文用一个简单但很有解释力的指标:熵下降比例
$$(H_\text{start}-H_\text{end})/H_\text{start}\times100$$
表4显示:
- K=1(离散RL)熵下降 9.44%
- K=2:5.82%
- K=3:6.03%
- K=6:7.09%
也就是说:**multiplex训练更不容易过早变得“固执”**,探索保留得更久。这和Pass@k上限更高的现象是互相呼应的。
---
## 🧷 **聚合策略消融:平均 or 加权,差别不大**
Multiplex token怎么把K个embedding合成一个向量?论文比较了:
- 不加权平均(Averaged)
- 按LM-head概率重加权(Weighted)
表5显示两者性能很接近,都显著优于离散RL。这提示我们:**核心增益来自“把多条路径塞进一个token”的范式变化,而不是线性组合的细枝末节。**
---
## 🎭 **定性图景:推理像呼吸——有时收束,有时岔开**
论文的Figure 6很有戏剧性:在一条具体推理轨迹里,multiplex token会在“共识步”和“探索步”之间切换:
- 共识步:K个采样token一致 → 沿着稳定路径前进
- 探索步:采样出现分歧(高熵fork)→ 多个候选被压缩进同一个token继续走
作者还把这与近期发现联系起来:**高熵位置的“少数token”往往是关键分叉点,对RLVR增益贡献最大(Wang et al., 2025)**。Multiplex Thinking恰好在这些位置“把岔路保留下来”,不急着做离散承诺。
---
## 🧭 **结尾:从“写出思考”到“携带思考”**
Multiplex Thinking提出了一种很耐人寻味的推理观:推理不一定要把每一步都写成文字;有些不确定性更适合以“分布的形状”存在,直到必须落笔成章的那一刻。
它在机制上做了一次精巧的折中:
- **保留离散采样的随机性**(让RL能学、能探索)
- **用连续向量承载多候选信息**(让token更密、更省)
- **自适应地在确定与不确定之间切换**(像人一样“该果断就果断,该犹豫就犹豫”)
更现实的意义在于:当我们越来越依赖“测试时扩展”(test-time scaling)去压榨模型上限时,Multiplex Thinking提供了一个新维度:**不仅能在“多采样”上加码,也能在“每一步采样如何表达”上升级。**
如果说传统CoT像一位严谨的书记员,一字一句记录推理;那么Multiplex Thinking更像一位会分身的侦探:在每个关键岔路口派出多个线索员,同时把所有线索压缩成一枚“高密度线索胶囊”,继续追踪真相。
而这枚胶囊,名字就叫:**multiplex token**。
---
## 📚 参考文献(核心5篇)
1. Tang, Y., Dong, L., Hao, Y., Dong, Q., Wei, F., & Gu, J. (2026). *Multiplex Thinking: Reasoning via Token-wise Branch-and-Merge*. arXiv:2601.08808v1.
2. Wei, J. et al. (2022). *Chain-of-Thought Prompting Elicits Reasoning in Large Language Models*.
3. Zhang, et al. (2025). *Soft Thinking*(论文中所述连续概念token方法)。
4. Lambert, et al. (2025). *Reinforcement Learning with Verifiable Rewards (RLVR)*(论文中背景引用)。
5. Shao, et al. (2024). *Group Relative Policy Optimization (GRPO)*(论文训练方法)。
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!