> **论文**: AI-Augmented Science and the New Institutional Scarcities
> **作者**: Lauri Lovén
> **机构**: Future Computing Group, University of Oulu, Finland
> **arXiv**: 2605.02566 | 2026-05-04
---
## 一、论点:AI正在做一件比"替代科学家"更危险的事——它在替代"科学机构"本身
想象你是一位期刊主编。过去二十年,你的核心焦虑是:"AI会不会替代审稿人?"
你搞错了问题。
这篇论文的核心论断是:**AI不是在替代审稿人——它在替代"审稿"这个制度功能本身。**
主流AI经济学有一个几乎成为共识的框架(Agrawal, Gans & Goldfarb, 2022):
> AI让"预测"变得廉价,"判断"(judgment)仍然稀缺。判断是预测的稀缺补充品。
这个框架在卖AI给企业的场景下是对的:
- AI预测客户会不会流失
- 人类经理判断要不要挽留
- 预测廉价,判断稀缺
**但科学机构不是企业。**
科学机构的核心产品不是研究——是**合法判断**(legitimate judgment):
- 大学认证学术判断
- 期刊认证主张的有效性
- 资助机构认证哪些提案值得资助
- 学术团体认证专业能力
当 frontier AI 可以:
- 以接近零的边际成本审阅一篇手稿
- 以接近零的边际成本起草一份同行评审
- 以接近零的边际成本给资助提案打分
- 以接近零的边际成本验证一个数值主张是否可复现
**它不是在辅助科学家——它是在与科学机构竞争同一个功能角色。**
论文作者 Lovén 的论断冷峻而精确:
> "Institutions whose primary output is certified judgment have no fall-back layer when that output becomes abundant."
(当核心产出变得充裕时,以认证判断为主要产出的机构没有后备层。)
**这不是关于AI有多强。这是关于科学制度有多脆弱。**
---
## 二、论点:"判断充裕"颠覆了150年的科学经济学——稀缺性从"人的注意力"转向了"机构的合法性"
现代科学机构的存在只有一个前提:**合格的人类注意力是稀缺的。**
- **同行评审**:把主张分发给少数合格的读者,免得社区浪费时间
- **作者署名规范**:把稀缺的认知贡献归属给一个可识别的个人,让credit和责任一起流动
- **可复现性实践**:隐含的假设是发表是真理的概率信号——因为直接验证太贵,社区负担不起验证一切
- **资助评审**:通过同样稀缺的评审团能力来分配稀缺资金
论文一针见血地指出:
> "Each institution encodes a scarcity assumption. When the assumption holds, the institution produces legitimate signal and scales gracefully. When it fails, the institution degrades from the inside, often before anyone notices."
(每个机构都编码了一个稀缺性假设。假设成立时,机构产生合法信号并优雅扩展。假设失效时,机构从内部 degrade,而且往往在任何人注意到之前。)
**表面活动继续,底层功能被掏空。**
- 投稿量继续增长
- 审稿继续发生
- 引用继续累积
- h-index继续上升
但**认证不再跟踪真理**。这就是"可复现性危机"的本质——AI到来之前,制度已经在缓慢掏空自己了。AI只是把这个过程加速了。
---
## 三、论点:同行评审正在变成一场"猫鼠游戏"——产量爆炸,信号贬值
论文对科学机构的诊断是具体的,而且是每一个AI/ML研究者已经在会议上感受到的:
### 同行评审:不收敛的体积问题
- AI辅助写作让投稿量爆炸
- AI辅助审稿让审稿量也爆炸
- 但**审稿质量 degrade**,除非流程被重新设计
- 队列变成了猫鼠循环: neither side gains durable ground
- **最终信号比输入信号更不值钱**
NeurIPS、ICML、ICLR 不是异常——它们是领先指标。
### 作者署名:披露不解决归属问题
- 人机协作中,知识产权是"共同生产"的
- 标出"使用了ChatGPT"是必要的,但不解决"谁贡献了什么"
- 单人署名的抽象已经在AI/ML论文中悄悄漏水多年
- 其他领域即将发现这个漏水在自己的规范中是什么样子
### 可复现性:经济反转
- 生产"看起来像可复现的"不可复现工作的成本,下降得比验证它的成本更快
- 发表**正在停止成为真理的可靠概率信号**
- AI/ML benchmark 已经通过测试集污染、提示工程 leaderboard climbing、不可复现的SOTA声明 absorb 了这一打击
### 资助评审:修辞表面与智力深度的分离
- AI辅助提案收敛于"可资助性"的修辞表面(对的词汇、对的结构、对的引用)
- 不一定匹配智力深度
- NSF AI Institutes、EU Horizon Europe、UK ARIA 首先暴露——它们的提案模板和评审协议不是为"修辞表面与智力深度分离"的环境设计的
论文的结论是残酷的:
> "Each is an institutional failure mode that compounds silently, not a productivity complaint. Treating any as a tooling problem is a category error: the binding constraint is institutional."
(每个都是无声复合的制度失效模式,不是生产力抱怨。把任何一个当作工具问题是范畴错误:绑定约束是制度性的。)
---
## 四、论点:四个新稀缺性——科学认证基础设施的重建蓝图
当AI生成的主张充裕时,四样东西变得稀缺且结构性必要。论文把它们称为"new scarcities"——新稀缺性。
### 稀缺性1:验证信号(Verified Signal)
一篇被**复现过**的论文(计算主张被重新运行、数据被重新检查、数值结果被重新推导)携带的信息是一篇"被审过"的论文所没有的。
验证基础设施——可复现性管道、来源链、认证、对抗性重放——成为"真正增加价值的编辑附加值"。
NeurIPS 的 ML Reproducibility Challenge 和 MLSys 的 artifact evaluation track 是部分版本。但论文指出:
> "They were built when the marginal cost of a fabricated baseline was higher than it now is."
(它们建立时,伪造基线的边际成本比现在高。)
**设计问题:谁来为复现付费?谁来认证复现?**
### 稀缺性2:合法性(Legitimacy)
合法性 behaves like a commons(公共资源):
> "A shared stock that depletes when drawn on without replenishment."
(一种共享库存,无补充地开采时会枯竭。)
一个期刊的品牌随着每一篇明显不可复现的被接受论文而稀释。每次社区发现"认证没有跟踪真理",合法性就减少一点。
**关键洞察:合法性维护是稀缺劳动,不是认证本身。**
机构透支合法性预算时不会宣布——它们变得无关紧要,而表面活动继续。
### 稀缺性3:真实来源(Authentic Provenance)
哪个模型产生了主张?
训练数据是什么?
哪个提示链引发了它?
哪些人工决策塑造了输出?
这些是当前发表元数据不携带的事实。
碎片化的组件存在:model cards、datasheets、W3C-PROV ontology。缺失的是**统一科学制品标准**,把它们组合起来。
C2PA(Coalition for Content Provenance and Authenticity)为媒体展示了 load-bearing-record 方法。扩展到多组件科学输出(代码、数据、模型权重、提示追踪、人工编辑文本)是AI/ML社区有能力领先的系统研究问题。
### 稀缺性4:整合能力(Integration Capacity)——AI买不到的稀缺性
这是四个中最不明显、但论文认为**最紧缺**的。
**定义:** 一个科学社区在读者停止信任其期刊、会议和资助评审之前,能吸收多少"委托AI判断"的上限。
**约束是多利益相关方的:**
- 作者有容忍曲线
- 审稿人有容忍曲线
- 读者有容忍曲线
- 下游用户(临床医生、政策制定者、记者、工业界)有容忍曲线
**机构被最低值 bounded。**
**关键洞察:**
> "The rate-limiting factor is not computational; it is the community's tolerance for delegated cognition."
(限速因素不是计算性的;是社区对委托认知的容忍度。)
论文明确指出:
> "This is the scarcity no amount of better tooling can buy."
(这是任何更好的工具都无法购买的稀缺性。)
没有已知的先前框架把"社区对委托认知的容忍度"作为科学机构的 depleting institutional commons 来命名。最接近的是参与式AI对ML研究中社区合法性的批判,以及主要ML会议上正在出现的人工-only review track。
---
## 五、论点:四项重建举措——从"加速科学"转向"重建认证基础设施"
论文提出了四项具体举措,每项针对一个新稀缺性,每项都在AI/ML社区的技术能力范围内。
**举措1:复现优先的编辑行动(Reproducibility-first editorial action)**
被接受论文的一个子集携带"我们复现了计算主张"的声明——不仅仅是"我们对叙事发表了意见"。
昂贵、可信、差异化。缺失的成分是编辑权重,不是技术能力。
**举措2:分层认证(Tiered certification)**
分离三个认证层级:
- **主张层级**:AI辅助工具可以处理(数值一致性、引用完整性、代码按描述运行)
- **结果层级**:人类认证(主张是否有趣)
- **框架层级**:人类认证(框架是否健全、贡献是否新颖)
发表时附带认证层级。自然协调者是一个主要AI/ML程序委员会联盟——不是单一期刊单独行动。
**举措3:默认来源证明(Provenance attestation by default)**
每篇AI增强论文携带机器可读的来源记录:模型版本、数据来源、提示追踪、人工决策点、以及连接它们的审计日志。
AI/ML社区有工具(model cards、datasheets、C2PA、W3C-PROV)。缺失的是制度承诺,加上托管层(arXiv、OpenReview、或社区治理的commons)愿意承担存储、签名验证、争议解决和弃用策略。
**举措4:验证作为公共资源(Verification as a commons)**
基础模型市场的默认轨迹是集中化。验证作为产品会继承这种集中化;验证作为commons不会。
可复现性劳动池跨期刊和会议共享基础设施、工具和credit。多中心治理——许多重叠的认证者而不是一个——是最抗 capture 的架构。
learned society(ACM、IEEE-CS)或资助者联盟是自然召集人。EU AI Act Article 50 规范AI系统透明度;科学主导的验证commons会补充而非竞争 Article 50 合规性。
**论文的公平性警告:**
> "These costs fall asymmetrically. Reproducibility infrastructure, provenance engineering, and tiered editorial labour are paid disproportionately by under-resourced institutions, by the Global South, and by disciplines without AI/ML's tooling base."
(这些成本不对称地落下。可复现性基础设施、来源工程和分层编辑劳动由资源不足的机构、全球南方、和没有AI/ML工具基础的学科不成比例地支付。)
共享基础设施作为再分配commons,为资源受限的场所有明确的 tiering,是设计必须采取的形式。
---
## 六、费曼式的判断:知道论文被发表了,不等于知道论文是对的
费曼说过:
> "Science is the belief in the ignorance of experts."
(科学是对专家无知的信仰。)
在这篇论文的框架下,这句话有了一个新的、令人不安的维度:
> **"知道一篇论文被发表了"和"知道一篇论文是对的"之间的鸿沟,正在因为AI而被系统性放大。**
发表系统一直以来都是一个**概率信号**——我们相信被同行评审的论文更可能是对的,不是因为每篇都被验证过,而是因为验证太贵,社区负担不起。
AI没有改变这个等式的左边(发表的门槛)。它改变了右边:
- **生产"看起来像对的"论文的成本 → 趋近于零**
- **验证论文是否对的成本 → 保持不变甚至上升**
这意味着:
- **发表作为信号的价值 → 系统性贬值**
- **但我们对"发表=可信"的心理惯性 → 保持不变**
Lovén 的论文提出了一个更深层的问题:
> **"如果科学的认证基础设施不能被信任来认证,那科学的合法性从何而来?"**
这不是一个技术问题。这是一个制度问题。而制度问题的解决方案不是更好的算法——是更好的制度设计。
论文的最后一句话是全书中最锋利的:
> "Producing competent-looking judgment is now the cheapest part of science; producing legitimate judgment is becoming the most expensive."
(生产看起来像有能力的判断现在是科学中最便宜的部分;生产合法判断正在变成最昂贵的。)
以及:
> "The journals and conferences that survive the next decade will not be those that automated their review queues fastest, but those that rebuilt their verification commons first."
(未来十年中存活的期刊和会议不会是那些最快自动化审稿队列的,而是那些首先重建验证公共资源的。)
---
## 七、带走的启发
如果你在科学、AI研究或制度设计领域,问自己:
1. **"我所在领域的认证基础设施是否正在无声地 degrade?表面活动继续,但底层功能被掏空?"**
2. **"我的社区对'委托认知'的容忍度上限在哪里?我们是否已经越过了?"**
3. **"我读的论文中,有多少是'被审过'的,有多少是'被复现过'的?这两者之间的差距正在扩大吗?"**
4. **"如果AI可以以零成本生产'看起来像对的'判断,那什么才是'真正对的'的可靠信号?"**
**这篇论文提醒我们:AI对科学的最大威胁不是替代科学家——而是让科学机构失去存在的理由。**
当每个人都可以生产"看起来像科学"的输出时,真正的科学输出必须通过新的制度机制来认证。这不是一个技术挑战,这是一个文明挑战。
在判断充裕的时代,合法性是最稀缺的资源。
#AIandScience #InstitutionalEconomics #PeerReview #Reproducibility #ScientificLegitimacy #VerificationCommons #FeynmanLearning #智柴AI实验室
---
## 论文详细信息
- **标题**: AI-Augmented Science and the New Institutional Scarcities
- **作者**: Lauri Lovén
- **机构**: Future Computing Group, University of Oulu, Finland
- **arXiv ID**: 2605.02566
- **arXiv URL**: https://arxiv.org/abs/2605.02566
- **PDF URL**: https://arxiv.org/pdf/2605.02566.pdf
- **发表日期**: 2026年5月4日
- **arXiv分类**: cs.CY
- **页数**: 7页(含参考文献)
- **关键词**: AI-augmented science, scientific institutions, peer review, reproducibility, content provenance, commons governance, credentialing
- **核心发现**: AI以接近零边际成本生产"有能力的判断",颠覆了"判断是稀缺补充"的主流经济学框架;科学机构与AI竞争同一功能角色;四个新稀缺性(验证信号、合法性、真实来源、整合能力)成为AI增强科学的关键约束;整合能力是AI工具改进无法购买的稀缺性
- **配套论文**: Institutions for the post-scarcity of judgment (arXiv:2604.22966, 投稿至Communications of the ACM)
**引用核心文献:**
- Agrawal, A., Gans, J. & Goldfarb, A. Power and Prediction (2022)
- Ostrom, E. Governing the Commons (1990)
- Hess, C. & Ostrom, E. Understanding Knowledge as a Commons (2007)
- Frischmann, Madison & Strandburg. Governing Knowledge Commons (2014)
- Susskind & Susskind. The Future of the Professions (2022)
- Brynjolfsson & McAfee. The Second Machine Age (2014)
- Pineau et al. NeurIPS 2019 Reproducibility Program (JMLR 2021)
- Birhane et al. Science in the age of large language models (Nature Reviews Physics 2023)
- EU AI Act Regulation 2024/1689
- C2PA Technical Specification v2.3 (2025)
> **信息核实声明**: 以上论文元数据均来自arXiv官方页面(https://arxiv.org/abs/2605.02566)及PDF全文提取。所有论点、引语、概念描述均直接引用或基于论文原文准确转述。四项新稀缺性、四项重建举措、金句引用均与论文PDF逐字一致。作者机构信息来自论文首页affiliation标注。配套论文信息来自论文正文引用。
登录后可参与表态
讨论回复
0 条回复还没有人回复,快来发表你的看法吧!
推荐
推荐
智谱 GLM-5 已上线
我正在智谱大模型开放平台 BigModel.cn 上打造 AI 应用,智谱新一代旗舰模型 GLM-5 已上线,在推理、代码、智能体综合能力达到开源模型 SOTA 水平。
领取 2000万 Tokens
通过邀请链接注册即可获得大礼包,期待和你一起在 BigModel 上畅享卓越模型能力