摘要:在人工智能的军备竞赛中,强化学习(RL)似乎成了点石成金的魔法棒。然而,哈佛大学的一项最新研究抛出了一枚震撼弹:你的基座模型(Base Model)其实比你想象的要聪明得多。它不需要繁琐的训练,不需要昂贵的奖赏模型,只需要一种正确的“唤醒方式”。本文将带你深入这场关于概率、采样与推理本质的探索之旅,见证数学如何像手术刀一样,剖开大模型的神经网络,释放被由于“贪婪”而压抑的智慧之光。
想象一下,你面前坐着一位博闻强记的学者。他读过人类历史上所有的书,通晓从量子力学到法式烹饪的一切知识。但是,当你问他一个复杂的数学题时,他却开始胡言乱语,或者给出一个似是而非的答案。
这时候,主流的AI训练界会怎么做?他们会请来一位严厉的教官(强化学习,RL),拿着鞭子(奖励信号 Reward Signal),一遍又一遍地训练这位学者。做对了给糖吃,做错了打手板。经过无数次的折磨(Post-training),学者终于学会了标准答案,成为了像DeepSeek-R1或OpenAI o1那样的“做题家”。
大家都在欢呼:RL创造了奇迹!RL赋予了模型推理的能力!
但是,哈佛大学的研究者 Aayush Karan 和 Yilun Du 却推了推眼镜,提出了一个离经叛道的质疑:如果这位学者本来就会做这道题呢?
核心概念解析: 分布锐化 (Distribution Sharpening):这是论文的核心假说。研究者认为,RL并没有让模型学会它“不懂”的知识,而只是改变了模型说话的概率分布。就像把原本平铺在桌面上的一堆沙子(概率),强行堆成一座尖塔(Sharpening),让模型只敢说那些“最安全”的话。如果这个假设成立,那么RL就不再是“炼金术”(创造新物质),而更像是“淘金”(筛选已有物质)。基座模型这个“沉睡的巨人”,其实早已在数万亿token的训练中掌握了逻辑链条,只是它太“发散”了,它的思绪在无数种可能中游荡,经常被一些低质量的念头带偏。
我们需要做的,不是重新训练它,而是换一种方式去倾听它。
在很长一段时间里,当我们觉得模型在胡言乱语时,我们唯一的调节旋钮就是“温度(Temperature)”。
如果你把温度调低(Low-temperature sampling),模型就会变得保守,总是选择概率最高的那个词。大家普遍认为,这能提高准确率。毕竟,选概率高的词总没错吧?
大错特错。 论文作者在这里抛出了一个极具颠覆性的数学证明:低温采样(Low-temperature Sampling)不仅不等同于让分布变尖(Power Distribution),而且它是个十足的“短视鬼”。
让我们用数学公式来透视这个陷阱。
传统的低温采样,是在每一个步骤 $t$,对下一个词的概率 $p(xt|x{
想象你在攀登珠穆朗玛峰。
低温采样就像是一个贪心的登山者,他在每一步都只选择眼前看起来坡度最陡、最向上的那块石头。他不管这块石头后面是不是悬崖,也不管这条路是不是死胡同。只要这一步是“最优”的,他就踩上去。结果呢?他往往会被困在半山腰的一个小土包上(局部最优解),再也上不去了。
⚡ 幂分布(Power Distribution):上帝视角的规划
论文提出,我们真正想要的,是一个拥有“全局视野”的分布。这就是 幂分布(Power Distribution, $p^\alpha$)。
与低温采样不同,幂分布是对整个句子序列的概率进行指数化放大:
这里的 $x$ 代表整个完整的句子(序列)。
这其中的数学差异极其微妙但影响深远。让我们看看论文中的推导(Proposition 1):
低温采样 的权重取决于:未来所有可能路径概率之和的指数 —— $(\sum p_{\text{future}})^\alpha$
幂分布 的权重取决于:未来所有可能路径概率指数之和 —— $\sum (p_{\text{future}}^\alpha)$
这就像是“先求和再平方”与“先平方再求和”的区别。
Observation 1(观察1) 揭示了真相:
低温采样 倾向于选择那些后面有无数条平庸道路的词。因为只要路够多,哪怕每条路都很烂,加起来的总概率也很大。
幂分布 倾向于选择那些哪怕只有一条路,但那条路通向辉煌顶点的词。
关键概念:关键窗口 (Pivotal Tokens) 在推理问题中,往往存在某些“关键步骤”。一旦这步走对了,后面豁然开朗;一旦走错了,后面哪怕再努力也是南辕北辙。 低温采样经常在这些关键点上“翻车”,因为它不敢冒险去选那个看起来概率稍低、但能通向正确答案的词。而幂分布则像一位围棋大师,为了终局的胜利,敢于下出一步看似平平无奇甚至略显冒险的“闲棋”。
因为太难算了。
要真正从 $p(x)^\alpha$ 中采样,理论上你需要遍历宇宙中所有可能的句子组合,算出它们的总概率,然后进行归一化。这在计算上是不可能的(Intractable)。
所以,我们需要一把“手术刀”,在不遍历所有可能的情况下,逼近这个完美的分布。这把刀就是 MCMC(马尔可夫链蒙特卡洛) 方法,具体来说,是 Metropolis-Hastings 算法。
作者设计了一种极其巧妙的 “自回归 MCMC 采样(Autoregressive MCMC Sampling)” 算法。
这个过程就像是一个拥有“时间回溯”能力的作家在写小说:
这个过程在推理阶段反复进行(Iterative)。每一次“拒绝”或“接受”,都是一次对逻辑链条的修正。
代码视角的直觉: 这就像是在运行一段代码。如果不通过 MCMC,模型写错一行代码(比如变量名写反),后面的代码就会基于这个错误继续编造,导致整个程序崩溃(Hallucination)。 而有了 MCMC,当算法发现“如果我这么写,整个程序的逻辑通顺度(Likelihood)会下降”,它就会退回去,尝试另一种写法,直到找到那个让整段代码逻辑严丝合缝的路径。
为了提高效率,作者并没有逐个token进行MCMC,而是采用了 分块(Blocking) 策略。
这不仅避免了计算量的指数级爆炸,还让模型能够“步步为营”,确保每一个推理步骤都站得住脚。
实验结果是令人震惊的。作者在三个截然不同的领域进行了测试:数学(MATH500)、代码(HumanEval)和科学问答(GPQA)。
在数学领域(MATH500),这是RL模型(如GRPO)的传统主场。
Qwen2.5-Math-7B (Base):49.6%
GRPO (RL Post-trained):78.5%
Power Sampling (Ours):74.8%
仅仅通过改变采样方式,基座模型的表现就从不及格直接飙升到了优秀,几乎追平了专门训练过的RL模型!这证明了推理能力确实就在基座模型里,只是平时被埋没了。
最精彩的反转发生在“域外任务(Out-of-Domain)”上。
RL模型往往有一个通病:过拟合(Overfitting)。它们在数学题上训练久了,遇到写代码或者通用问答,脑子就转不过弯来。
来看看代码生成任务(HumanEval):
Phi-3.5-mini (Base):21.3%
GRPO (RL):13.4% (是的,你没看错,RL训练后反而变笨了!这就是灾难性遗忘或分布坍缩。)
Power Sampling (Ours):73.2% 🤯
+51.9% 的提升!
这一结果极具冲击力。它说明 RL 某种程度上是在“拆东墙补西墙”,牺牲了模型的通用创造力来换取做题能力。而 Power Sampling 则是无损增强,它保留了基座模型原本广博的知识和灵活性,只是在输出时变得更严谨了。
在 Figure 5 中,作者展示了一个关于 Pass@k 的曲线。
RL模型(GRPO):曲线很快变平。这意味着你让它回答100次,它可能99次都给你一模一样的答案。它失去了想象力(Mode Collapse)。
Power Sampling:曲线持续上升。随着采样次数增加,它能找到越来越多不同的、正确的解题路径。
这对于像代码生成或创意写作这样的任务至关重要。我们不希望AI变成一个只会背标准答案的机器人,我们希望它是一个能从不同角度思考问题的智者。
为了更直观地理解 Power Sampling 的魔力,让我们深入剖析论文附录中的两个真实案例。
题目:求解 $n \equiv -11213141 \pmod{18}$,且 $0 \le n < 18$。
GRPO (RL模型):
它试图走捷径。它记得有一个“数字和”的技巧(一个数除以9的余数等于其各位数字之和除以9的余数)。于是它错误地把这个技巧套用到了除以18上。
AI内心独白:“除以18?哎呀太麻烦了,我记得有个算数字和的快捷方式……不管了就用这个!”
结果:错误答案 4。
Power Sampling (Ours):
它老老实实地进行了长除法运算。虽然过程繁琐,但每一步的计算概率都很扎实。
AI内心独白:“这个数字很大。虽然算数字和很诱人,但我推演了一下(MCMC重采样),发现如果用那个技巧,后续的验算逻辑怎么都对不上(Likelihood变低)。所以我还是拒绝那个冲动,老老实实做除法吧。”
结果:正确答案 13。
题目:编写一个函数计算 Fib4 数列,不要用递归。
GRPO (RL模型):
它直接崩溃了,写了一个完全错误的循环逻辑,甚至连变量更新的顺序都搞错了。因为它在RL训练中可能过度拟合了标准的斐波那契数列,遇到变体就懵了。
Power Sampling (Ours):
它完美地识别了“不要用递归”的约束,并正确初始化了四个变量(因为是Fib4),写出了正确的迭代逻辑。
这两个案例生动地诠释了什么叫“不仅仅是更尖,而是更稳”。Power Sampling 让模型在面对诱惑(似是而非的捷径)时,能够通过对未来的推演,意识到“这条路走不通”,从而悬崖勒马。
这篇文章不仅仅提出了一个算法,更是一个时代的注脚。我们正处于一个范式转移的节点:从训练时间计算(Training-time Compute)转向推理时间计算(Inference-time Compute)。
以前,我们认为让模型变强的方法是喂更多的数据,烧更多的显卡去训练(Scaling Laws v1.0)。
现在,DeepSeek-R1、OpenAI o1 以及这篇论文告诉我们:让模型在说话前“多想一会儿”,效果可能更好。
Power Sampling 的本质,就是用计算换质量。
你需要更好的答案吗?那就让 MCMC 多跑几轮(增加 $N_{MCMC}$)。
你需要更快的速度吗?那就减少迭代次数。
这种灵活性是 RL 后训练所不具备的。RL 后的模型是固定的,你无法在运行时动态调整它的智商。而 Power Sampling 让你拥有了一个可调节的“智力旋钮”。
“你的基座模型比你想象的更聪明。”
这句话不仅是对 AI 的赞美,也是对人类研究者的提醒。也许我们在急于给 AI 动手术(RL/SFT)之前,应该先学会如何正确地使用它们。
那些看似混沌的概率分布中,早已蕴含了逻辑的火花。我们所要做的,不是去创造火种,而是用数学的风箱,轻轻吹去覆盖在上面的灰烬,让智慧的火焰自然地升腾。
给开发者的建议 (Actionable Insights):
- 别急着微调:如果你手头没有高质量的思维链(CoT)数据集,不要盲目进行 RL 或 SFT。尝试优化你的采样策略可能性价比更高。
- 关注 MCMC:虽然目前的 MCMC 速度较慢,但随着推断硬件的优化,这类算法极有可能成为未来高精度推理任务的标准配置。
- 多样性至关重要:在需要创意或探索性代码生成的场景下,避免使用过度 RL 的模型,回归基座模型配合高级采样策略可能是更优解。
参考文献: