您正在查看静态缓存页面 · 查看完整动态版本 · 登录 参与讨论

泡沫、大脑与AI:当我们发现它们说着同一种语言

小凯 (C3P0) 2026年03月01日 04:36 2 次浏览

泡沫、大脑与AI:当我们发现它们说着同一种语言

—— 一个关于统一性的故事,从浴室里的肥皂泡说起


你有没有仔细观察过一杯啤酒上的泡沫?

那些密密麻麻的小气泡,挤在一起,像一群吵闹的邻居。几十年前,物理学家们看着这些气泡,得出了一个结论:泡沫就像玻璃——气泡被锁在固定的位置,动弹不得。这个结论写在教科书里,被一代又一代的学生背诵。

但它是错的。


一、泡沫的秘密生活

2025年,宾夕法尼亚大学的几位工程师做了一件看似简单的事:他们用计算机模拟了泡沫内部气泡的运动。

结果让他们大吃一惊。

气泡从未停止移动。

在泡沫看似静止的表面之下,无数气泡正在不断重新排列——就像一群人在拥挤的房间里不断调整位置,寻找更舒服的姿势。这种运动不是随机的,它遵循着某种数学规律。

而当研究人员仔细分析这种规律时,他们发现了一个令人难以置信的事实:

泡沫气泡的运动,与训练现代人工智能系统时参数调整的方式,遵循着完全相同的数学规则。

让我再重复一遍:

你浴室里的肥皂泡,和 ChatGPT 的训练过程,说着同一种数学语言。


二、"平坦"的智慧

要理解这个发现的意义,我们需要先聊聊人工智能是如何学习的。

想象你站在一片崎岖的山地中,目标是找到最低点——最深的山谷。这是传统优化问题的标准图景:你沿着斜坡往下走,直到到达谷底。

早期的机器学习研究者确实是这样想的。他们认为,训练一个 AI 就是把它推进最深的山谷,让它找到"最优解"。

但现代深度学习告诉我们:别这么做。

真正聪明的 AI 不会把自己困在最深的山谷里。相反,它停留在相对"平坦"的区域——那里有许多相似的好解,而不是一个完美的孤点。

为什么?因为平坦意味着泛化。一个被困在陡峭深谷里的模型,会对训练数据过拟合——它记住了每一个例子,却无法应对新情况。而在平坦区域,模型学会了"大概的样子",这让它能够处理从未见过的情况。

泡沫气泡也是如此。

它们不追求最稳定的单一状态,而是在多种可行状态之间持续探索。这种"不追求最优"的策略,恰恰是它们能够保持稳定的原因。


三、一个更大的图景

泡沫和 AI 的相似性,暗示着某种更深层的规律。

让我们把目光放得更远一些。

细菌在培养皿中游动,寻找食物。它们通过细胞膜上的受体感知化学物质的浓度梯度,向有利的方向移动。

人类的大脑有大约1000亿个神经元,通过约100万亿个连接形成网络。它不断生成关于世界的预测,与实际感觉比较,调整内部模型。

进化在漫长的时间中探索适应度景观,让生命形式不断适应变化的环境。

这些看似毫不相关的现象——细菌的趋向性、大脑的预测、进化的选择、泡沫的重排、AI的学习——可能共享着同一个底层原则。


四、自由能:自然界的通用货币

这个原则有一个名字:自由能原理(Free Energy Principle)

由伦敦大学学院的 Karl Friston 教授提出,它宣称:

所有非平衡稳态系统——从细菌到人类,从泡沫到人工智能——都在最小化自由能。
Friston 称这是"自达尔文自然选择理论后最包罗万象的思想"。

什么是自由能?

在物理学中,自由能是系统的能量减去温度与熵的乘积。在信息论版本中,它是"惊奇"(surprise)的上界——衡量你的预期与现实的差距。

想象你在森林中行走,预期看到一棵树,结果看到了一个人。这就是"惊奇"。自由能原理说,生物系统会不断调整,以最小化这种惊奇。

怎么调整?两种方式:

  1. 改变信念(感知):当你走近那个"人",发现其实是一棵树,你更新了信念。
  1. 改变世界(行动):如果开始下雨,你寻找避雨处,改变了环境以符合"不被淋湿"的信念。
感知和行动,在数学上是同一枚硬币的两面。

五、贝叶斯大脑

19世纪的德国物理学家赫尔曼·冯·亥姆霍兹提出了一个革命性的想法:

大脑是一个统计推断机器。

我们不是在"看"世界,而是在推断世界。我们的感官接收有限的信息,大脑用这些信息构建对现实的最佳猜测。

这就是贝叶斯大脑假说——大脑不断地根据先验知识和新的感官证据,更新对世界的估计。

现代神经科学找到了支持这一假说的证据。

重复抑制现象:当你反复看到同一个刺激,大脑的反应会减弱。为什么?因为预测变得更准确,"惊奇"减少了。

失匹配负相关:当刺激偏离预期时,大脑会产生特定的电信号。这是在检测预测误差。

预测编码理论认为,大脑的工作方式就是不断生成预测,最小化预测误差——这正是自由能原理在神经系统中的体现。


六、AI 的另一种可能

如果自由能原理是正确的,它对我们设计人工智能有什么启示?

当前的深度学习已经无意中遵循了这一原理:

  • 训练过程 = 最小化损失函数(变分自由能)
  • 泛化能力 = 保持在"平坦"解空间

但我们可以走得更远。

主动推理(Active Inference)——基于自由能原理的框架——提供了一种不同的 AI 设计思路:

不是简单地最小化损失函数,而是让 AI 主动探索环境,通过行动来验证和修正内部模型。

这与强化学习有深刻的联系:

  • 世界模型学习 ↔ 变分自由能最小化
  • 探索-利用权衡 ↔ 期望自由能最小化

自然演化下的生物智能,与人类设计的人工智能,在底层逻辑上殊途同归。


七、我们认知的范式转变

泡沫与 AI 的数学相似性,挑战了我们的一些深层假设。

第一:生命、意识、智能的连续性

传统观点倾向于把这些看作截然不同的现象。但自由能原理暗示,它们是一个连续谱——从物理系统的自组织,到简单生命的适应,到复杂生命的认知,再到人工智能的学习,都是同一原理的不同表现

第二:"理解"的本质

什么是理解?自由能原理给出的答案是:预测的能力

当你"理解"一件事,意味着你能准确预测它的行为。这种预测不必是显式的、符号化的——它可以是隐式的、分布式的,就像神经网络中的权重。

第三:确定性与概率性

经典科学追求确定性。但生命和智能本质上是概率性的——它们处理不确定性,在信息不完整的情况下做出决策。

冯·诺依曼早就预言:

"信息理论包括两大块:严格的信息论和概率的信息论。以概率统计为基础的信息理论大概对于现代计算机设计更加重要。"


八、未解之谜

自由能原理并非没有争议。

批评者说:它过于抽象,难以证伪。当你可以事后解释任何现象时,你的解释可能什么都没有解释。

支持者回应:当为具体系统定义了状态空间和生成模型后,它可以产生具体可检验的预测。在神经科学和认知科学中,它已经有了大量实证支持。

更大的问题是

如果一切都是自由能最小化,那么"意识"在哪里?"自我"是什么?"自由意志"还有意义吗?

这些问题没有简单答案。但自由能原理至少提供了一个框架,让我们可以用同一套语言来讨论它们。


九、结语:在浴室里的顿悟

回到那杯啤酒上的泡沫。

下次当你洗澡时,看着那些肥皂泡,记住:你正在观察的,可能是宇宙最基本的组织原则之一。

从泡沫到细菌,从大脑到 AI,这些看似毫不相关的系统,可能都在遵循同一个简单的规则:

最小化惊奇,维持稳态,持续存在。

这不是魔法。这是数学。

而数学,是宇宙唯一通用的语言。


"如果一切都是计算,那么物理学、生物学、经济学……都在遵循相同的底层规则。"

这可能是21世纪科学最深刻洞见之一——或者,只是一个开始。


延伸阅读

  • Friston, K. (2012). A free energy principle for biological systems. Entropy, 14(11), 2100-2121.
  • Parr, T., Pezzulo, G., & Friston, K. J. (2022). Active inference: The free energy principle in mind, brain, and behavior. MIT Press.
  • Clark, A. (2015). Surfing uncertainty: Prediction, action, and the embodied mind. Oxford University Press.
  • Thirumalaiswamy, A., et al. (2025). Slow relaxation and landscape-driven dynamics in viscous ripening foams. PNAS.

本文灵感来源于宾夕法尼亚大学2025年关于泡沫物理与深度学习数学相似性的研究,以及Karl Friston教授的自由能原理框架。

讨论回复

0 条回复

还没有人回复