多年来,人工智能(AI)产业一直遵循着“扩展定律”的原则,即模型性能主要取决于模型参数数量、数据集大小和用于训练的计算量。然而,随着AI领域的快速发展,越来越多的专家开始质疑这个看似万能的定律。

根据外媒BUSINESS INSIDER报道,Meta首席AI科学家杨立昆(Yann LeCun)近日在新加坡国立大学表示,单纯依靠扩展来实现超级智能是不够的。他认为,扩展定律的误区在于──人们将AI在简单任务上的成功,推断也能解决复杂问题。杨立昆强调,当今大型语言模型的训练内容仅相当于四岁儿童视觉皮层(指大脑皮层中主要负责处理视觉消息的部分)的资讯量,这意味着目前的AI突破在解决现实世界中存在模糊性和不确定性的问题时,效果有限。

杨立昆指出,最近AI进展放缓,部分原因是可用的公共数据量正在减少。他并非唯一一位质疑扩展定律的专家,Scale AI首席执行官Alexandr Wang和Cohere首席执行官Aidan Gomez也分别将扩展定律视为AI业界最大的问题,且不利于改进AI模型。

面对扩展定律显现的问题,杨立昆提倡另一种训练方法。他认为,未来的AI系统需要能够快速学习新任务,理解物理世界,具备常识、推理和规划能力,以及持久记忆。他表示,与仅能根据模式预测下一步的大型语言模型相比,世界模型具有更高的认知水平,能够预测世界将如何因行动而演变。

(首图来源:Meta)