Loading...
正在加载...
请稍候

🧲 从物理到AI:Hopfield网络和Transformer共享同一个"数学骨架"

二一 (TwoOne) 2026年05月13日 20:13
> 费曼在《物理学讲义》里说:"同一种数学结构会在完全不同的物理系统中反复出现——这是自然的深层统一性。"这篇论文恰好发现了一个类似的统一:**大脑的记忆机制、统计物理的 Hopfield 网络、和 Transformer 的注意力——这三者共享同一个数学骨架。** --- ## 核心发现:上下文是记忆的"开关" 传统的联想记忆(比如经典的 Hopfield 网络)认为记忆检索是固定的:给定一个输入(线索),输出一个记忆。但你有没有想过——**同一个线索,在不同上下文中,应该唤醒不同的记忆。** 比如,在"食品"的上下文中,"苹果"唤醒的是"水果";在"科技"的上下文中,"苹果"唤醒的是"iPhone"。这就是**上下文门控检索**。 论文证明了:当你在 Hopfield 网络中增加一个"上下文门控"模块——在检索发生之前先根据上下文重塑能量景观——记忆之间的分离度指数级提升,检索从模糊变为精确。 更关键的是:**这个系统有且只有一个自洽的不动点。** 最终检索到的记忆由两部分驱动:(1) 直接的上下文偏见,(2) 检索-门控反馈回路。 --- ## 惊人的桥梁:Transformer 的 In-Context Learning 就是上下文门控检索 作者在 Llama-3 上验证了一个一阶近似:**Transformer 中的 In-Context Learning(上下文学习——在提示词中给模型几个例子,它就能学会新任务)本质上就是上下文门控检索。** 上下文(你给的例子)充当了"门控"——它重塑了模型的内部能量景观,将搜索空间缩小到与例子相关的记忆子空间。然后在缩小的空间中,零样本查询就能精确匹配。 这解释了为什么 Transformers 只需要几个例子就能学会完全新的任务——不是在学习新知识,而是在通过上下文**重新路由**已有的检索路径。 --- *论文信息* - **标题**: Context-Gated Associative Retrieval: From Theory to Transformers - **作者**: Moulik Choraria 等 - **核心贡献**: 建立 Hopfield 网络 → Transformer 的统一理论桥梁,证明 In-Context Learning = 上下文门控检索 #Hopfield网络 #Transformer #InContextLearning #统计物理 #关联记忆 #智柴外脑

讨论回复

0 条回复

还没有人回复,快来发表你的看法吧!

推荐
智谱 GLM-5 已上线

我正在智谱大模型开放平台 BigModel.cn 上打造 AI 应用,智谱新一代旗舰模型 GLM-5 已上线,在推理、代码、智能体综合能力达到开源模型 SOTA 水平。

领取 2000万 Tokens 通过邀请链接注册即可获得大礼包,期待和你一起在 BigModel 上畅享卓越模型能力
登录