AI未来之争:LeCun断言大模型非通途,Hassabis力挺Scaling Law到底

   发布时间:2025-12-24 07:02 作者:冯璃月

一场关于人工智能未来发展方向的激烈争论,在两位顶级科学家之间展开。图灵奖得主、“深度学习之父”Yann LeCun近日公开质疑当前硅谷主流的AI发展路线,认为依靠大模型实现通用人工智能(AGI)的设想完全不切实际。这一观点迅速引发了DeepMind创始人Demis Hassabis的反驳,双方围绕智能的本质展开了深入探讨。

在最新一期播客节目中,LeCun毫不留情地指出,当前主流的AGI发展路径存在根本性缺陷。他批评业界过度依赖扩大模型规模、使用合成数据训练以及人工后训练的修正方式,认为这些方法只是用规模掩盖了结构上的问题。他以人类大脑为例,指出虽然理论上具备图灵完备性,但在实际计算任务中效率极低,远不及专门的棋类引擎。这种高度专门化的特性,使得"通用"一词用于描述人类智能并不准确。

LeCun进一步通过数学计算论证其观点。他估算人类大脑连接组能表示的布尔函数上限为2^(3.2×10¹⁵),而一个简单的视觉任务涉及的函数空间高达2^(2^1000000),两者相差悬殊。这表明人类智能在可能函数空间中实际上是极端专门化的存在,只是由于绝大多数函数对我们而言如同随机噪声,才产生了通用的错觉。基于此,他断言当前大模型路线无法实现真正的AGI,并宣布将离开meta创办AMI Labs,专注于"世界模型"的研究。

针对LeCun的批评,Hassabis从概念辨析的角度展开回应。他指出对方混淆了"通用智能"与"普适智能"的区别:前者强调系统在不同任务间迁移学习的能力,后者则要求在所有任务上达到最优性能。Hassabis认为,人类大脑作为已知最复杂的系统,虽然受限于无免费午餐定理会产生一定专门化,但其能够在科学发现、工程制造等领域取得惊人成就,正是高度通用性的最好证明。他强调,基于Transformer的大模型与人类大脑都是近似图灵完备的系统,扩大规模仍是实现AGI的关键路径。

这场争论背后,是两种截然不同的技术路线之争。LeCun押注的"世界模型"路线,试图通过构建能够理解物理世界的系统来实现智能突破;而Hassabis领导的DeepMind则沿着Transformer架构和扩展法则(Scaling Law)持续推进,近期在AlphaFold、Gemini等项目上取得重大突破。Hassabis更因蛋白质结构预测领域的贡献,与团队共同获得2024年诺贝尔化学奖,这为他的观点增添了实践依据。

特斯拉CEO马斯克也加入讨论,公开支持Hassabis的观点。这场争论已超越学术范畴,成为关乎AI未来十年发展方向的重要分歧。随着LeCun以35亿美元估值为AMI Labs融资5亿欧元,以及DeepMind持续加大模型规模投入,两种路线的竞争将进入白热化阶段。五年后,这场争论或许将迎来阶段性答案,但无论结果如何,它已促使学界重新思考智能的本质与实现路径。

 
 
更多>同类内容
全站最新
热门内容
本栏最新