当今的大语言模型(LLM)经常表现出一种类似人类“顿悟”的行为:在推理中途突然停下来自我纠错,仿佛发现了逻辑漏洞。这种行为引发了学术界对于“智能”本质的深刻反思。这种看似理性的自我修正,究竟是智慧火花的闪烁,还是仅仅因为计算路径混乱而产生的高熵状态?
本期海报将基于两篇硬核论文,从架构设计原理和信息论角度,解构这一现象。我们将探讨普林斯顿与 UCLA 提出的 Deep Delta Learning (DDL) 以及关于 LLM 推理过程中 The Illusion of Insight 的研究。
经典的残差网络(ResNet)通过引入跳跃连接解决了深层网络的退化问题。然而,其核心机制本质上是一种“正向增强”。
如果我们将神经网络比作一辆汽车,ResNet 只有“油门”($y = x + F(x)$),它只能在原有特征上进行累加。这种架构缺乏“负反馈”机制,导致网络在面对需要“遗忘”或“撤销”之前错误决策的任务时显得笨拙。
Deep Delta Learning (DDL) 试图解决这一缺陷。研究指出,生物大脑的智能不仅源于神经连接的增强(长时程增强 LTP),同样源于抑制(长时程抑制 LTD)。
DDL 引入了参数 β (Beta),通过数学上的“几何反射”和“正交投影”,模拟了人类记忆中的擦除与反向调节能力。这使得网络不仅仅是在做加法,还能在特征空间中进行“减法”或“转向”。
设计思想: DDL 的核心在于赋予神经网络“后悔”的能力。在传统的梯度下降中,我们通过反向传播来修正权重,但这是一种全局的、慢速的调整。DDL 尝试在前向传播的瞬间,利用几何结构特征进行局部的“即时修正”,更像是一种直觉性的反思。
另一项残酷的研究揭示了 AI “心智”中的真相。研究人员发现,当大模型在输出中突然插入诸如“等等,我刚才错了”、“让我们重新思考”等自我纠错短语时,其内部状态的熵值往往会急剧上升。
高熵代表着系统处于极度的不确定状态。这并不意味着模型在逻辑层面“顿悟”了真理,反而是其推理路径陷入混乱、概率分布趋于扁平的信号。这种现象被称为“洞察力的幻觉”。
自我纠错时刻往往伴随着极高的不确定性(高熵)
既然 AI 的“自我纠错”往往是恐慌的表现,我们该如何利用这一点?研究者提出了 Forced Aha 策略:将模型的“高不确定性”视为一个干预契机。
还没有人回复