**——深度解读《可构造判定:面向可信AI的设计时验证》**
> *"如果一栋大楼在动工前就能证明自己的结构是安全的,为什么要等到它倾斜了才去加固?"*
---
## 🎭 序曲:一个令人不安的悖论
想象这样一个场景:你站在一座宏伟的摩天大楼前,玻璃幕墙在阳光下熠熠生辉。建筑工程师走过来告诉你——"这座大楼在我们浇筑第一立方米混凝土之前,就已经证明了自己不会在风暴中倒塌。"
你可能会惊讶地问:"怎么可能?它还没建好呢!"
工程师微笑着解释:"因为我们有蓝图。蓝图上每一个尺寸、每一根钢筋的规格、每一个承重点的位置,都经过了数学验证。当蓝图上的等式成立时,大楼就必然成立。"
这个看似简单的道理,在人工智能领域却是一个革命性的想法。
2026年3月26日,休斯顿·海恩斯(Houston Haynes)在arXiv上发表了一篇题为《可构造判定:面向可信AI的设计时验证》(*Decidable By Construction: Design-Time Verification for Trustworthy AI*)的论文。这篇论文提出了一个令人震撼的观点:**AI模型的正确性,应该在它接受第一次训练之前就得到证明,而不是等到它犯错之后再打补丁。**
这听起来像是科幻小说里的情节,但它背后的数学严谨得近乎冷酷。让我们一起走进这个奇妙的思想世界。
---
## 🌊 第一章:在风暴之后才修补船舱
### 🚢 当代AI的"灾后重建"模式
让我们先看看今天的AI系统是如何被构建的。
假设你要训练一个预测物理系统行为的神经网络——比如预测一个抛射体的轨迹。你收集大量数据,搭建网络架构,调整超参数,然后启动训练。几个小时或几天后,模型收敛了。你兴奋地测试它,却发现它在某些输入下会产生荒谬的结果:抛射物向上飞、速度为负数、或者能量不守恒。
这时候,你该怎么办?
**现代AI的主流答案是:事后补救。**
- **物理信息神经网络(PINNs)**:在损失函数中添加物理残差项,惩罚那些违反物理定律的预测
- **Moreau投影**:用GPU加速的优化方法将模型输出投影到可行集上
- **条件记忆模块(Engram)**:在Transformer层中插入快速查找模块
- **各种正则化技术**:Dropout、权重衰减、对抗训练...
这些方法都有效,但它们共享一个结构性缺陷:**模型先存在,然后我们去纠正它。**
就像一艘船在下水后才发现漏水,然后我们拼命修补。每一次修补都需要付出代价——计算资源、推理延迟、训练时间。更重要的是,这些成本会随着部署规模线性甚至指数增长:更多的部署 × 更深的网络 × 更多的推理请求 = 天文数字般的开销。
海恩斯在论文中一针见血地指出:
> *"当代AI可靠性基础设施共享一个结构性假设:模型先存在,纠正机制后应用。每个新方法都解决了真实的故障模式,但共同的结构原因是——传统流程抹除了那些本可以让纠正干预变得不必要的语义信息。"*
### 🏥 事后治疗的代价
让我们用医学来打个比方。
假设有一种疾病可以通过疫苗预防,成本低廉且一劳永逸。但现在的做法却是:不接种疫苗,等到人群感染后再用昂贵的药物和手术治疗。这不仅成本高昂,而且有些人可能已经病入膏肓,无法挽救。
当代AI的做法,就像是拒绝疫苗,只依赖事后治疗。
- **计算成本**:每次推理都要运行投影算法、检查约束条件
- **能源消耗**:GPU集群24小时运转,不仅要计算模型输出,还要验证这些输出是否合理
- **可靠性风险**:纠正机制本身可能有漏洞,或者在某些边缘情况下失效
- **可扩展性瓶颈**:随着模型变大、部署变多,事后验证的开销会压垮整个系统
海恩斯的论文问了一个简单但深刻的问题:**如果我们能在模型"出生"之前就确保它是健康的,为什么还要在出生后不断给它治病?**
---
## 🔬 第二章:设计时验证——建筑蓝图的智慧
### 📐 从混凝土到代码
回到摩天大楼的例子。建筑师如何确保大楼不会倒塌?
他们不会在浇筑混凝土后去"测试"大楼是否稳固——那太晚了,也太危险了。相反,他们在图纸上验证一切:计算每一根梁的承重、每一个节点的应力、每一种载荷下的形变。当数学证明结构是安全的,实际建造就只是执行蓝图。
这就是**设计时验证(Design-Time Verification)**的核心思想。
海恩斯提出,AI模型的许多关键属性——维度一致性、数值稳定性、几何结构保持——可以在模型被训练之前就得到验证。不是通过启发式方法,不是通过统计测试,而是通过严格的数学证明。
### 🧮 阿贝尔群的魔法
论文的核心数学工具听起来很抽象,但本质很直观:**有限生成阿贝尔群 ℤⁿ**。
不要被术语吓到。ℤⁿ 就是n维整数向量的集合。为什么这个简单的结构如此强大?
想想物理量的维度:
- 质量:[M]
- 长度:[L]
- 时间:[T]
- 速度:[L/T] = [L] × [T⁻¹]
- 力:[M×L/T²] = [M] × [L] × [T⁻²]
这些维度在乘法下形成一个阿贝尔群。乘法对应维度的相加(指数相加),除法对应相减。例如:
- 速度 × 时间 = [L/T] × [T] = [L] ✓(得到长度,正确)
- 力 ÷ 质量 = [M×L/T²] ÷ [M] = [L/T²] = 加速度 ✓
海恩斯的关键洞察是:**如果我们能用 ℤⁿ 上的线性约束来表达模型的属性,那么这些属性的验证就变成了求解线性方程组的问题。**
而求解线性方程组:
1. **可判定的**:总能得到明确的是/否答案
2. **多项式时间的**:复杂度 O(n³),用高斯消元法
3. **主类型唯一的**:存在一个"最一般"的解,且唯一
### 🎨 三大支柱
论文构建了一个由三个核心组件组成的框架:
#### 1️⃣ DTS:维度类型系统(Dimensional Type System)
传统的类型系统检查语法:这个变量是整数吗?那个是字符串吗?
DTS更进一步,检查**物理意义**:这个张量表示力吗?那个表示速度吗?它们的运算在物理上合法吗?
例如:
```
F - m·a: [N] - [kg]·[m/s²] = [N] - [N] = 0 ✓ (正确)
F - m·v: [N] - [kg]·[m/s] = [N] - [kg·m/s] ✗ (类型错误!)
```
第二个式子在物理上毫无意义——力减去动量?这就像把苹果和橘子相减。
当前的主流深度学习框架(PyTorch、TensorFlow、JAX)完全无法检测这种错误。它们只看到浮点数,不关心这些数代表什么。模型会愉快地训练,收敛,在训练数据上表现良好——然后在新数据上输出物理上不可能的结果。
#### 2️⃣ PHG:程序超图(Program Hypergraph)
这是论文中最令人惊艳的部分之一。海恩斯将**克利福德代数(Clifford Algebra)**引入了AI模型验证。
克利福德代数是几何代数的统一框架,可以表达向量、旋转、反射、甚至时空结构。它在计算机图形学、机器人学、物理学中有广泛应用。
PHG的关键创新是**等级推断(Grade Inference)**。
在克利福德代数中,几何乘积的凯莱表(乘法表)非常稀疏。例如,在三维投影几何代数 Cl(3,0,1) 中:
- 完整凯莱表有 16×16 = 256 个条目
- 但双向量×双向量乘积只涉及等级 0、2、4,共 48 个非零条目
- **计算量减少 5.3 倍!**
更重要的是,这种稀疏性可以通过**类型签名推导出来**,不需要运行时计算。在模型被训练之前,我们就知道哪些计算是结构上为零的,可以直接跳过它们。
#### 3️⃣ ADM:自适应领域模型(Adaptive Domain Model)
这是将理论付诸实践的架构层。ADM确保:
- **深度无关的训练内存**:使用前向模式自动微分,每层只需 O(1) 辅助内存,而不是反向传播所需的 O(深度)
- **等级保持的权重更新**:使用 b-posit 算术的精确累加,防止训练过程中结构零点被数值误差"污染"
- **热轮换部署**:新模型版本可以在不停机的情况下原子性切换,且新配置必须通过 PHG 验证后才能激活
- **贝叶斯蒸馏**:从通用模型中提取满足领域物理约束的后验分布
---
## 🧬 第三章:为什么是 ℤⁿ?数学的优雅与力量
### 🎯 可判定性定理
海恩斯在论文中给出了一个形式化定理(定理 2.1):
> **可判定性定理**:设 𝒫 是控制AI模型正确性的结构属性集合(维度一致性、克利福德等级保持、逃逸分类、数值表示充分性)。当这些属性被表达为 ℤⁿ 上的约束时,每个属性都满足:
> 1. **可判定**:框架能在有限时间内给出明确的是/否答案
> 2. **多项式**:求解成本为 O(n³)
> 3. **主类型**:最一般的解存在且唯一
这个定理的实用意义是深远的。它意味着:
**在模型接受第一次训练迭代之前,我们就能确定:**
- 它的维度单位是否一致
- 它的几何代数运算是否保持正确的等级
- 它的内存分配是否是确定性的
- 它的数值表示是否足够精确
没有模糊性,没有启发式猜测,计算在变量数量的立方时间内完成。
### 🔄 对微分的封闭性
阿贝尔群片段对链式法则封闭。如果 f: ℝ^⟨d₁⟩ → ℝ^⟨d₂⟩,那么:
∂f/∂x : ℝ^⟨d₂·d₁⁻¹⟩
这是在指数代数中的减法(d₂ - d₁ 在 ℤⁿ 中)。每个梯度节点继承一个由前向传播相同的高斯消元验证的维度。
这意味着什么?**训练过程本身也是可判定的。** 我们在设计时验证的属性不会在训练中蒸发。梯度计算继承与前向传播相同的约束,使用每层常数辅助内存,没有激活磁带,整个计算保持在可判定片段内。
### 📊 组合约束空间
DTS 与等级推断一起在阿贝尔群的乘积上运行:
ℤ⁷(SI基本维度) × ℤ(克利福德等级) = ℤ⁸
统一算法在 ℤ⁸ 上求解线性方程组。过程是高斯消元,扩展一个轴;它是可判定的、多项式的、主类型的。
在实际应用中,框架同时推理物理单位和几何代数等级,在单次遍历中,使用支撑每个现代数值库的相同线性代数。将等级推断添加到维度推断的成本只是每个约束变量多一个整数。
---
## 🌌 第四章:与所罗门诺夫先验的深刻联系
### 🧠 通用归纳与可计算限制
这是论文中最令人屏息的部分。海恩斯建立了一个意想不到的联系:他的框架与**所罗门诺夫归纳(Solomonoff Induction)**——算法信息论的圣杯——之间的桥梁。
所罗门诺夫(1964)定义了二进制字符串上的通用先验:
P(x) = Σ_{p: U(p)=x*} 2^{-|p|}
其中 U 是通用图灵机,x* 表示输出以 x 开头的程序,|p| 是程序长度。
这个先验是半可计算的:从上方可计算枚举,但不可有限计算。它是一个理论上的完美,但在实践中无法触及。
### 💡 阿贝尔群作为可处理性机制
海恩斯的关键洞察:**将假设空间限制为 ℤ 上的有限生成阿贝尔群,将半可计算先验转换为可计算先验。**
这个限制保留了两个关键属性:
1. **足够的表达能力**:限制类包含控制模型正确性的假设
2. **可处理的推断**:决策过程是多项式的
Hindley-Milner 统一在 ℤⁿ 上计算主类型:具有最少自由变量、满足最多约束的赋值。这个主类型是在偏爱较短描述的先验下的最大后验假设。
**命题 5.1(主类型作为MAP假设)**:
设 ℋ 是所有与程序类型约束一致的维度赋值的假设空间,表达为 ℤⁿ 上的线性方程组。在先验 π(h) ∝ 2^{-|h|} 下(其中 |h| 计算自由维度变量的数量),HM 计算的主统一器是 MAP 估计:
h* = argmax_{h∈ℋ} π(h) = argmin_{h∈ℋ} |h|
这个 MAP 估计可通过 ℤ 上的高斯消元在 O(n³) 内计算。
### 🎓 与所罗门诺夫的形式联系
与所罗门诺夫的联系是形式化的,不只是类比的。李和维塔尼(Li and Vitanyi, 1997)建立了最小描述长度(MDL)与可计算假设类的柯尔莫哥洛夫复杂度之间的等价性。对于任何可计算类 ℋ,MDL 假设与限制到 ℋ 的通用先验下的 MAP 假设一致。
ℤⁿ 片段是一个可计算类;DTS 推断是其上的 MDL 过程:
- |M| = 自由维度变量的数量(模型复杂度)
- |D|M| = 违反的约束数量(数据拟合)
- 主统一器最小化 |M|,受 |D|M| = 0 约束
等级推断通过第二个轴扩展这一点。"模型复杂度"变为非零凯莱表条目的数量。等级推断在满足所有等级约束的条件下最小化这个数量。
### 🏛️ 分层验证模型
可处理性结果自然地扩展到更强的验证层级:
| 层级 | 片段 | 决策程序 | 复杂度 | 典型用例 |
|------|------|----------|--------|----------|
| 1 | ℤⁿ | 高斯消元 | O(n³) | 维度、等级、逃逸 |
| 2 | QF_LIA | Z3 | NP完全 | 范围、不变量 |
| 3 | FOL | 定理证明器 | 半可判定 | 完整规范 |
| 4 | TM | 手动 | 不可判定 | 任意属性 |
层级形成一个包含链:ℤⁿ ⊂ QF_LIA ⊂ FOL ⊂ TM
每个包含扩展假设空间,增加表达能力,降低可处理性。
实际观察是:大多数控制AI模型正确性的有用属性生活在 ℤⁿ 片段(层级1)中。框架自动推导它们,对每个模型,在多项式时间内。
---
## ⚔️ 第五章:与当代方法的较量
### 🎯 四种方法的结构性局限
论文详细比较了四种当代AI可靠性方法,揭示了它们共有的结构性问题。
#### 1. Moreau投影(凸优化)
**做法**:通过可微内点方法将模型输出投影到凸可行集上。
**问题**:投影算子引入了训练动态中的几何病理。对于无约束输出 y 和可行集 𝒞,投影 Π_𝒞(y) = argmin_{c∈𝒞} ||y-c|| 总是指向最近的边界。梯度 ∂Π_𝒞(y)/∂y 在训练步骤中强化这个方向,在约束边界附近创建吸引盆地。
**成本**:每个推理步骤的内点求解,随请求量线性增长,不可摊销。
**DTS替代方案**:在设计时验证约束规范的维度正确性;每个推理零成本。
#### 2. 损失塑形(PINNs)
**做法**:将物理残差项添加到训练损失中。
**问题**:损失函数的维度良好形式未被验证。计算 F - m·v(力减动量)的项通过验证、训练,可能在训练分布上表现良好。不一致性在分布外输入上浮现,模型产生物理上不可能的预测。
**成本**:每个领域需要领域专家推导的定制损失项;随领域数量线性增长。
**DTS替代方案**:在类型推断期间验证每个算术运算的维度一致性,在可忽略的增量成本下。
#### 3. 条件记忆(Engram)
**做法**:在特定Transformer层添加 O(1) 查找,用于静态模式。
**问题**:模块放置(在30块Transformer中的第2层和第15层)是经验性的。检索的嵌入不带维度注释、等级结构,或与消费计算的形式关系。过度咨询降低性能;架构缺乏咨询频率的形式化标准。
**成本**:每个架构重新发现最优放置;随部署配置线性增长。
**Fidelity替代方案**:通过 BARE 协议进行类型化咨询,由相干标准(方程8)控制频率;响应携带维度注释和 PHG 证书。
#### 4. 几何求解器(Plücker / ARC)
**做法**:使用Plücker坐标(Cl(3,0,1)中的等级-2双向量)解决ARC-AGI任务,零学习。
**问题**:等级结构存在于每个操作中,但对实现不可见。Plücker线是 double[6] 数组。求解器在34%的任务上超时,计算结构上为零的凯莱表条目。它在3%的任务上失败,因为固定嵌入无法捕获设计之外的变换类型。
**DTS解决方案**:等级推断(消除结构上为零组件的计算)和类型化嵌入推导(通过PHG引导的类型分析扩展嵌入集)。
### 📈 成本结构对比
| 方法 | 每部署成本 | 每层成本 | 每请求成本 | 总成本增长 |
|------|-----------|---------|-----------|-----------|
| Moreau投影 | O(1) | O(1) | O(1) | O(d·l·r) |
| PINNs | O(领域) | O(1) | O(1) | O(d·l·r·domain) |
| Engram | O(配置) | O(1) | O(1) | O(d·l·r·config) |
| Plücker | O(1) | O(1) | O(1) | O(d·l·r) |
| **DTS/PHG/ADM** | **O(1)** | **O(0)** | **O(0)** | **O(d)** |
事后方法具有线性或恒定边际成本。每个新部署、层或推理请求支付与第一个相同的价格。
设计时方法在框架存在后具有可忽略的边际成本。成本结构不是实现细节;它是可判定性定理的后果。
可判定属性在细化时需要 no 运行时执行。在运行时执行的属性需要与执行站点数量成比例的执行。
随着部署扩散、架构深化和推理量增长,总成本差异复合:每个新部署与每个额外交互和每个额外请求交互。事后成本按 O(d·l·r) 缩放;设计时成本保持 O(1)。
---
## 🚀 第六章:实际意义——从实验室到现实世界
### 🏥 医学决策支持
想象一个预测患者药物反应的AI系统。
**当前做法**:在大量患者数据上训练模型,希望它能学到潜在的生物学规律。然后通过后处理确保输出在生理上合理。
**问题**:如果模型学到的是"质量 × 速度"而不是"质量 × 加速度"(力),它可能在某些罕见但关键的情况下给出危险的错误建议。
**设计时验证做法**:在训练前,类型系统验证每个计算的物理/生理维度。试图将血压(mmHg)与心率(bpm)相加的模型会被立即拒绝。只有维度一致的模型才能进入训练阶段。
### 🚗 自动驾驶
自动驾驶汽车需要融合来自多个传感器的数据:摄像头(像素)、雷达(距离/速度)、激光雷达(3D点云)、GPS(坐标)。
**当前做法**:每个传感器流独立处理,然后在某个潜在空间中融合。维度信息丢失,模型必须学会隐式地"理解"这些量的物理关系。
**设计时验证做法**:每个传感器流携带其维度类型(长度、时间、速度等)。融合操作必须通过维度一致性检查。试图直接将像素值与速度相加的操作会在设计时被捕获并拒绝。
### 🌍 气候建模
气候模型涉及复杂的物理过程:大气流动、海洋循环、辐射传输、化学反应。
**当前做法**:物理学家手动设计损失函数,惩罚违反能量守恒或质量守恒的预测。但这需要领域专家的大量工作,且容易出错。
**设计时验证做法**:物理定律(能量守恒、动量守恒等)作为维度约束直接嵌入类型系统。模型架构必须通过验证,确保它尊重这些基本物理原理。
### 💰 金融风险管理
考虑一个计算风险调整回报的模型。
**常见错误**:return × volatility(回报 × 波动率)
**正确公式**:return / volatility(夏普比率类似)
两个表达式有不同的维度签名:
- 第一个:[currency·currency·time⁻¹]
- 第二个:[无量纲]
DTS 在细化期间拒绝第一个。没有标准ML框架在任何阶段检测这个错误;模型训练、收敛,产生数值上看似合理但维度上不相干的输出。
在当前实践中,这类潜在错误的标准补救方法是**过度参数化**:添加模型容量,直到损失表面足够平滑,优化器尽管存在潜在不一致也能收敛。这有效,在训练损失下降的意义上,但它通过将错误埋在足够的参数体积下来实现,使其对训练分布的影响在统计上可忽略。
不一致仍然存在,未暴露,直到模型遇到分布外输入,维度不匹配产生输出,没有参数容量可以纠正。更深层的后果是计算上的。过度参数化模型需要成比例更多的训练时间、内存和能量来达到收敛,正是因为它们在补偿类型系统会在训练开始前消除的结构错误。
维度验证模型在约束、一致的子空间上训练。搜索体积更小。描述的等级推断和凯莱表消除复合这一优势:结构上为零的组件从每个操作中移除,所以模型不仅在搜索更小的空间,而且在该空间内每步执行更少的操作。
---
## 🔮 第七章:未来展望
### 🌱 研究前沿
论文承认,尽管理论框架已经建立,但仍有大量工作要做:
1. **硬件覆盖扩展**:当前参考实现针对特定硬件基板(FPGA和NPU)和特定数值表示(IEEE 754和带quire累加的b-posit)。扩展到更广泛的硬件目标。
2. **相干标准的生产验证**:方程(8)中的相干标准需要在生产规模上验证其有效性。
3. **分层验证的成熟**:将分层验证层级从层级1通过层级3成熟化。
4. **贝叶斯蒸馏的实证验证**:需要在多样化领域建立领域数据减少的实际界限。
### 🎓 信息论的意义
也许最深远的影响是哲学性的。海恩斯展示了:
> **Hindley-Milner 统一在阿贝尔群上计算可计算限制下的所罗门诺夫通用先验的最大后验假设。**
这意味着什么?
所罗门诺夫归纳是理论上最优的归纳推理方法,但它不可计算。海恩斯的框架识别了一个**可计算的片段**,它仍然足够丰富,可以捕捉控制AI正确性的关键属性。
换句话说,我们不必放弃最优性来换取可处理性。存在一个"甜蜜点"——ℤⁿ 上的线性约束——在这里,通用归纳变得实际可行。
这是一个深刻的认识,可能超越AI,影响任何需要复杂系统中推断和验证的领域。
### 🏛️ 对AI治理的启示
随着AI系统在高风险领域(医疗、自动驾驶、金融、司法)的部署,监管机构和标准组织越来越关注"可信AI"。
当前的方法主要关注:
- 测试覆盖率:模型在测试集上表现如何?
- 审计:事后检查模型的行为
- 解释性:模型为什么做出这个决策?
设计时验证提供了一个全新的视角:**可证明的正确性**。不是通过测试来建立信任,而是通过数学证明。
这可能改变AI治理的整个范式。想象一下:
- 医疗AI必须通过形式化验证,证明它的输出在生理上合理
- 自动驾驶系统必须证明其感知-决策链在物理上一致
- 金融模型必须证明其计算的维度正确性
这将把AI工程从一门经验艺术转变为一门工程学科——就像土木工程从"建然后测试"演变为"验证然后建"。
---
## 📝 结语:从修补到预防
休斯顿·海恩斯的论文《可构造判定:面向可信AI的设计时验证》提出了一个根本性的范式转变。
当前AI可靠性方法共享一个结构性假设:**模型先存在,纠正后应用。** 这就像是拒绝疫苗,只依赖疾病后的治疗。
海恩斯展示了另一种路径:**如果属性是可判定的,为什么不在设计时验证它们?**
他的框架建立在美丽的数学之上——阿贝尔群、克利福德代数、Hindley-Milner 类型推断——但其实际信息是简单的:
> *"AI可靠性不必事后购买。属性是可判定的。验证是多项式的。保证是结构性的。"*
在医学中,我们早已明白预防胜于治疗。在工程中,我们接受建筑蓝图必须经过验证。是时候将同样的智慧带入人工智能了。
当未来的AI史学家回望2026年,他们可能会将这篇论文标记为一个转折点——AI工程从经验试错转向形式化验证的时刻。
就像摩天大楼的蓝图确保了建筑的安全,设计时验证确保了AI的可靠。不是通过反复的试错和修补,而是通过数学的优雅和严谨。
毕竟,如果我们能在第一行代码写下之前就证明AI是正确的,为什么还要在训练完成后才去纠正它呢?
---
## 📚 参考文献
1. Haynes, H. (2026). *Decidable By Construction: Design-Time Verification for Trustworthy AI*. arXiv preprint arXiv:2603.25414.
2. Haynes, H. (2026a). *Adaptive Domain Models: Bayesian Evolution, Warm Rotation, and Principled Training for Geometric and Neuromorphic AI*. arXiv preprint arXiv:2603.18104.
3. Haynes, H. (2026b). *Dimensional Type Systems and Deterministic Memory Management: Design-Time Semantic Preservation in Native Compilation*. arXiv preprint arXiv:2603.16437.
4. Haynes, H. (2026c). *The Program Hypergraph: Multi-Way Relational Structure for Geometric Algebra, Spatial Compute, and Physics-Aware Compilation*. arXiv preprint arXiv:2603.17627.
5. Baydin, A. G., Pearlmutter, B. A., & Syme, D. (2022). *Gradients without Backpropagation*. arXiv preprint arXiv:2202.08587.
6. Boyd, S., & Vandenberghe, L. (2004). *Convex Optimization*. Cambridge University Press.
7. Cheng, X., Zeng, W., Dai, D., et al. (2026). *Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models*. arXiv preprint arXiv:2601.07372.
8. Gustafson, J. L., & Yonemoto, I. T. (2017). *Beating Floating Point at Its Own Game: Posit Arithmetic*. Supercomputing Frontiers and Innovations, 4(2).
9. Kennedy, A. (2009). *Types for Units-of-Measure: Theory and Practice*. In Central European Functional Programming School, LNCS, Vol. 6299.
10. Li, M., & Vitanyi, P. (1997). *An Introduction to Kolmogorov Complexity and Its Applications*. Springer.
11. Milner, R. (1978). *A Theory of Type Polymorphism in Programming*. Journal of Computer and System Sciences, 17(3), 348-375.
12. Raissi, M., Perdikaris, P., & Karniadakis, G. E. (2019). *Physics-Informed Neural Networks: A Deep Learning Framework for Solving Forward and Inverse Problems Involving Nonlinear Partial Differential Equations*. Journal of Computational Physics, 378, 686-707.
13. Solomonoff, R. J. (1964). *A Formal Theory of Inductive Inference*. Information and Control, 7(1), 1-22.
---
*本文力求以通俗的语言解释复杂的科学概念。如有不准确之处,责任在于作者的理解局限,而非原论文。*
#AI #论文解读 #设计时验证 #类型系统 #科普 #智柴创作
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!