核心洞察

归纳偏置是驱动Grokking现象的核心机制。它通过一个在训练过程中动态演化的"相变"过程来实现:早期,模型的偏置(如大初始化带来的隐式偏置)倾向于快速拟合训练数据的"记忆解";晚期,另一种偏置(如权重衰减的显式偏置或Adam优化器的"Slingshot"隐式偏置)占据主导,将模型推向更简洁、更具泛化能力的"泛化解"。

理论基础

这一从记忆到泛化的转变,在宏观上表现为模型性能的"顿悟"式提升。该过程可通过优化动态的二分性、神经网络内部"记忆电路"与"泛化电路"的竞争,以及对模型复杂度的系统性偏好等多个层面进行解释。

研究范围

近期的研究,特别是从2022年至2025年的系列工作,将焦点指向了归纳偏置这一核心驱动力。这些研究揭示了Grokking并非偶然,而是深度学习优化过程中内在偏置与数据结构相互作用的必然结果。

核心机制:多层次解释框架

优化动态的二分性:从记忆到泛化的转变

早期阶段

大初始化带来的隐式偏置,使模型进入"懒惰"训练模式,快速拟合训练数据

相变点

权重衰减的累积效应开始主导,推动模型向最小范数解转变

晚期阶段

模型切换到"丰富"模式,学习有意义的特征表示,实现泛化

"Grokking的相变可以被理解为:在训练的漫长过程中,权重衰减的'拉力'最终克服了早期隐式偏置的'推力',将模型从一个记忆解的吸引子盆地中'拽'出。"

理论支持:Lyu等人的阶段二分理论证明

Lyu等人(2023-2024)的研究工作为Grokking现象提供了严谨的数学证明。他们的理论分析表明,优化过程可以被清晰地划分为两个不同阶段:

  • 第一阶段:模型动态主要由初始化决定,行为类似核方法,目标是完美拟合训练数据
  • 第二阶段:权重衰减开始主导,引导优化器寻找最小范数解,实现泛化

表示学习视角:电路竞争与效率偏好

记忆电路

  • • 结构复杂、参数冗余
  • • 快速实现零误差拟合
  • • 存储特定样本映射
  • • 泛化能力差

泛化电路

  • • 结构简洁、计算高效
  • • 学习潜在规律
  • • 捕捉可泛化模式
  • • 优秀的泛化能力

权重衰减对高效电路的偏好

权重衰减不仅惩罚参数的大范数,更深层次地偏好那些具有低秩稀疏结构的表示。这种偏置可以被看作是秩最小化的代理。

当低秩的泛化电路在效率上最终超越高秩的记忆电路时,Grokking的相变就发生了。这个临界点可以被精确地定义为泛化电路的效率首次超过记忆电路效率的时刻。

优化器特定偏置:Adam的"Slingshot"机制

Slingshot机制

自适应优化器晚期的异常动态,意外引入泛化偏置

Thilak等人(2022)的研究发现,Adam优化器在训练后期可能出现一种周期性的、非单调的动态,即"Slingshot"效应。这种看似不稳定的动态,实际上是一种有益的隐式偏置。

暂时陷入局部最小值

积累能量准备挣脱

弹射到泛化区域

复杂度与秩最小化偏置

从高秩记忆解到低秩泛化解

Grokking的核心转变可以表述为从高秩的记忆表示到低秩的泛化表示的跃迁。这个转变点对应于模型内部关键权重矩阵的秩发生显著下降的时刻。

初始秩 最终秩

任务特定复杂度偏置的必要性

2025年最新研究表明,简单性偏置并非万能。在某些复杂的表格数据、高维回归问题中,过于强烈的简单性偏置可能是有害的。

理想的归纳偏置应该与任务的真实复杂度相匹配,而不是一味地追求简单。

实证观察:归纳偏置在不同场景下的表现

优化器与正则化方法的影响

Adam优化器

  • • Slingshot机制
  • • 非单调动态
  • • 更强的探索能力
  • • 更容易触发Grokking

SGD优化器

  • • 平滑收敛轨迹
  • • 稳定局部最小值
  • • 较弱探索能力
  • • 较难触发Grokking

权重衰减

  • • 核心显式偏置
  • • 强度调节相变
  • • 惩罚大范数参数
  • • 引导最小范数解

权重衰减强度的影响

过低或无

模型倾向于记忆,Grokking不发生

适中强度

理想情况,清晰的相变

过高强度

过度惩罚,欠拟合

模型架构与任务类型的影响

玩具任务(模加法)

在模加法 `a + b ≡ c (mod p)` 等算法任务中,由于内在规律简洁,泛化电路效率远高于记忆电路,Grokking的相变通常表现得清晰、尖锐且可重复

这些任务为验证Grokking的理论模型提供了理想的实验环境

表格数据与回归任务

真实世界的数据通常不包含单一完美的数学规律,其内在规律可能更加复杂、嘈杂。在这种情况下,简单性偏置的效果变得有限,模型可能需要学习更高复杂度的函数

这揭示了归纳偏置的任务依赖性,不存在"放之四海而皆准"的最佳偏置

大语言模型(LLM)

在LLM中,Grokking呈现出局部与异步的特征。模型的不同能力(语法、事实知识、推理)可能在不同时间点、基于不同数据子集发生Grokking。

LLM的"涌现能力"可视为一系列在不同领域、不同时间上发生的局部Grokking事件的集合

归纳偏置的负面效应与局限性

简单性偏置的局限

在复杂任务中,强制模型学习简单函数的偏置会导致无法充分拟合数据,限制性能上限,起到"矫枉过正"的作用。

任务依赖性

最佳偏置高度依赖于任务,缺乏统一的理论指导如何选择最优偏置,这使得理论难以直接推广。

计算成本

Grokking通常需要超长训练,带来巨大的计算成本。在实际应用中,训练直到Grokking可能不经济。

应用与启示:利用归纳偏置设计更好的模型

加速与控制Grokking的训练策略

调整权重衰减与初始化

课程式权重衰减

初期使用较小权重衰减,后期逐渐增加强度,加速相变

多尺度初始化

从大初始化开始确保"懒惰"模式,为后续"顿悟"创造条件

优化器选择

优先选择Adam

自适应优化器的Slingshot机制天然适合诱导Grokking

增强隐式偏置

设计特定动量策略或学习率调度,增强泛化偏置

监控电路/秩演化作为Grokking指标

通过定期计算关键权重矩阵的秩或奇异值分布,可以预测Grokking的相变。当观察到秩开始显著下降时,通常预示着相变即将发生。

秩下降进度

理解大语言模型的涌现能力

局部Grokking与特定能力的关联

LLM的每种高级能力都可以看作独立的"任务",经历从记忆到泛化的Grokking过程:

语法能力:学习句法结构的规律
事实知识:记忆和关联世界知识
推理能力:进行多步逻辑推断
大语言模型能力涌现的抽象可视化
归纳偏置作为涌现能力的根本驱动力

Transformer架构(注意力机制、位置编码)和训练目标(预测下一个词)共同引入强大的结构偏置,引导模型在海量数据中寻找有意义的模式。当积累达到临界点时,Grokking发生,新能力涌现。

设计任务特定的归纳偏置

结构化正则化

设计能够鼓励特定网络结构的正则化项,如层级化、模块化

促进模块化表示学习

信息论偏置

基于信息瓶颈或最小描述长度原理的偏置

学习紧凑且信息丰富的表示

因果偏置

在模型中引入对因果关系的偏好

学习更鲁棒的规律

平衡泛化能力与模型容量

设计任务特定的归纳偏置是在泛化能力和模型容量之间进行权衡的艺术

泛化能力

⚖️

模型容量

未来方向与开放问题

理论层面的未解之谜

统一Grokking理论的构建

当前关于Grokking的解释多样但零散,缺乏统一的数学框架。未来的关键挑战是构建一个能够整合所有视角的统一理论。

需要解释为什么不同条件下不同机制会占据主导,以及这些机制如何相互作用

无正则化下纯隐式偏置的极限

目前理论多依赖显式正则化。理解纯隐式偏置(仅由优化器动态驱动)的极限是一个重要的开放问题。

需要回答:在没有权重衰减的情况下,优化器的隐式偏置是否足以驱动泛化?

归纳偏置与泛化边界的精确关系

虽然知道归纳偏置能促进泛化,但对其与泛化边界的精确关系知之甚少。

需要探索如何将偏置直接纳入泛化边界的推导中

开放问题总结

  • • 如何设计任务特定归纳偏置,避免简单性偏置局限?
  • • LLM涌现能力是否主要源于类似偏置相变?
  • • 无正则化下Grokking的纯隐式偏置极限何在?

实践层面的挑战与机遇

理论推广挑战

如何将玩具任务的理论推广至大规模模型(如LLM)是一个巨大挑战

损失曲面极其复杂
需要新的理论工具

可控偏置机制

设计可控且稳定的偏置引入机制,以诱导期望的泛化行为

自适应正则化
基于元学习的方法

多模态学习机遇

探索归纳偏置在多模态学习中的作用,设计促进跨模态泛化的偏置

模态无关表示
语义空间对齐

研究方向展望

技术发展方向
  • • 开发自适应正则化方法
  • • 设计更智能的优化器
  • • 构建可控偏置引入机制
  • • 加速Grokking的训练策略
应用拓展方向
  • • 多模态学习中的偏置设计
  • • 科学计算领域的特定偏置
  • • AI for Science的结构编码
  • • 可控AI系统的偏置引导

结论与启示

核心总结

归纳偏置为理解Grokking现象提供了强有力的理论框架。通过优化动态的二分性、电路竞争机制、Slingshot效应和复杂度偏好等多个角度,我们能够系统地解释模型从记忆到泛化的戏剧性转变。

这一理解不仅揭示了深度学习泛化的内在机制,也为设计更智能、更可控的AI系统提供了宝贵的指导。未来的研究需要在理论和实践两个层面继续深入,以构建更完整的图景并将这些见解转化为可落地的技术。

理论价值

为理解深度学习泛化提供了新的理论视角

实践指导

为模型训练和优化提供了实用的策略指导

未来潜力

为构建更强大的AI系统指明了发展方向