您正在查看静态缓存页面 · 查看完整动态版本 · 登录 参与讨论

Yann LeCun:硅谷AI路径的批判者与"世界模型"的倡导者

✨步子哥 (steper) 2025年12月21日 12:03 0 次浏览
Yann LeCun:硅谷AI路径的批判者与"世界模型"的倡导者

Yann LeCun:硅谷AI路径的批判者与"世界模型"的倡导者

图灵奖得主、前Meta首席AI科学家对当前AI发展路线的尖锐批评与全新愿景

person引言:AI泰斗的离场与新征程

近日,图灵奖得主、前Meta首席AI科学家Yann LeCun在《The Information Bottleneck》栏目中,用将近两小时的时间,对当前硅谷追捧的AI发展路径进行了尖锐批评。这位65岁的AI泰斗直言,靠扩大大语言模型的规模、喂合成数据、搞强化学习微调,就想通往超级智能,"完全是胡扯"。更重磅的是,LeCun选择离开效力12年的Meta,从零创办一家新公司,押注一套全新的技术路线,试图重新定义AI的未来。

"通往超级智能的那条路——无非是不断训练大语言模型、喂更多合成数据、雇上几千人做后训练、再在强化学习上搞点新花样——在我看来完全是胡扯,这条路根本行不通。"

trending_down对当前AI发展路径的尖锐批评

LeCun认为,业界对大语言模型规模化的执念,正在把人工智能引向一条看似高速、实则封闭的死胡同。在他看来,真正制约AI进步的关键,并不是如何更快地逼近"人类级智能",而是如何跨越一个常被低估却极其困难的门槛——让机器具备"狗的智能水平"。

核心观点

现实世界中的理解、预测和行动能力,远比生成流畅文本复杂得多,而现有以语言为核心的模型,并未真正触及这一问题的本质。

LeCun指出,当前大语言模型存在几个根本性缺陷:

  • 它们本质上是记忆型系统,需要海量数据来存储和复述事实
  • 它们缺乏真正的理解能力,只是被微调到给出"看起来正确"的答案
  • 它们无法处理高维度、连续且含噪声的数据模态,如视频和物理世界感知
  • 它们的可靠性有限,且容易被"越狱"绕过安全限制

not_interested对AGI概念的根本性批判

LeCun直言不讳地指出,"通用智能"(AGI)这个概念本身就站不住脚。他认为,这个概念本质上是以"人类智能"为参照定义的,但人类智能本身高度专用化。我们擅长在现实世界中行动、与他人互动,但在下棋等任务上却表现糟糕;而很多动物在某些方面远胜人类。

"我们之所以误以为自己是'通用的',只是因为我们只能理解自己能够想象的问题。"

LeCun认为,与其讨论"通用智能",不如讨论"人类水平智能":机器是否会在所有人类擅长的领域达到或超过人类?他强调,这个过程不会是一个突发事件,而是一个渐进的过程。

关键见解

最难的部分是达到"狗水平"的智能。一旦达到这个阶段,绝大多数核心要素就已经具备了。从灵长类到人类,真正新增的关键能力,可能主要是语言。

public世界模型:LeCun提出的新AI架构

基于对当前AI路径的批评,LeCun通过其新公司AMI(Advanced Machine Intelligence)推动另一条技术路线:构建能够理解和预测世界的"世界模型"(World Models)。

与主流生成模型直接在像素或文本层面进行输出不同,AMI的核心思路是在抽象表征空间中对世界运行规律进行建模和预测。这种模型关注的不是"生成看起来像什么",而是"世界将如何演化",从而为机器提供更接近真实认知的基础能力。

close主流生成模型

在像素或文本层面直接输出

依赖海量数据模仿人类行为

缺乏真正的理解和推理能力

check世界模型架构

在抽象表征空间中建模世界

关注世界如何演化而非表象

具备预测、规划和行动能力

LeCun解释,世界模型的关键在于学习一个抽象的表征空间,这个空间会滤除输入中大量无法预测的细节(包括噪声),然后在这个表征空间内进行预测。这就是JEPA(联合嵌入预测架构)的核心思想。

// JEPA(联合嵌入预测架构)核心思想 function JEPA(input) { // 1. 编码器将输入转化为抽象表征 representation = encoder(input); // 2. 预测器在表征空间进行预测 prediction = predictor(representation); // 3. 对比学习确保表征包含足够信息 loss = contrastive_loss(prediction, target_representation); return loss; }

securityAI安全问题:发展必须与安全同步

关于AI安全,LeCun的观点与Hinton、Bengio等人有所不同。他认为,安全必须与发展同步进行,而不是先停下来等"绝对安全"。

"我常用喷气发动机作比喻:第一代喷气发动机根本不安全、不可靠,但正是在不断工程改进中,才达到了今天这种可以连续飞行17小时的可靠性。AI也会走类似的路径。"

LeCun提出,应该构建目标驱动(objective-driven)的AI架构,这种架构具备以下几个关键能力:

  • 拥有世界模型,能够预测自身行为可能带来的后果
  • 可以规划一系列行动来完成任务
  • 受到一整套硬性约束的限制,确保不会对人类造成危险

他强调,这类系统在设计层面就是安全的。因为它的输出不是靠"微调"或"内容过滤",而是通过在满足约束条件的前提下,优化目标函数得出的。换句话说,它在结构上就不具备"逃逸"的可能性,这是一种先天安全的设计,而不是事后修补。

business离开Meta创办新公司:背景与愿景

LeCun离开Meta创立新公司,是看到当前AI投资热潮让长期研究型创业成为可能。他解释,以前这类研究只能依托于IBM、贝尔实验室这类垄断型大企业,或是微软、谷歌、Meta等大公司的研究院。

近年来,尽管他推动的开放研究曾影响整个领域,但如今包括谷歌、OpenAI甚至Meta在内的许多实验室正转向封闭。因此,他认为现在正是时候在Meta之外继续推进他所专注的研究方向。

AMI Labs的愿景

新公司名为先进机器智能实验室(Advanced Machine Intelligence Labs,简称AMI Labs),计划融资5亿欧元,估值30亿欧元。LeCun将担任执行主席,法国医疗科技初创公司Nabla的创始人Alexandre LeBrun将出任首席执行官。

LeCun透露,AMI Labs不仅专注于研究,最终还要推出实际产品。这些产品将围绕世界模型和规划等核心技术展开,目标是成为智能系统的主要供应商之一。

lightbulb结论:AI的未来方向

LeCun的观点再次凸显了他与当前主流AI叙事之间的分歧。在行业普遍押注算力、数据和参数规模的背景下,他选择回到认知与感知的基本问题,试图重新定义通往通用人工智能的技术路径。

对于AI的未来,LeCun给出了一个相对保守的时间表:如果一切顺利、没有遇到尚未意识到的根本性障碍,最乐观的情况是在5到10年内,我们或许能看到接近人类,或者至少接近"狗水平"的智能系统。但他也强调,这只是最乐观的估计,历史告诉我们,AI发展中总会出现新的瓶颈,可能需要20年甚至更久才能突破。

"我有使命感。我一直认为,提升世界上的'智能总量'是一件内在正确的事情。智能是这个世界上最稀缺、最被需要的资源,这也是为什么人类投入如此多的成本去教育。"

对LeCun而言,这不仅是一场技术路线之争,也是一场关乎AI未来方向的长期下注。无论结果如何,他的批评和挑战无疑为当前AI领域注入了宝贵的多元视角,促使整个行业重新思考通往真正智能的道路。

讨论回复

1 条回复
✨步子哥 (steper) #1
12-21 12:20

我个人观点: 杨的看法是错误的。