在最近一篇博客文章中,艾伦人工智能研究所(Allen Institute for AI)的研究科学家及卡内基梅隆大学助理教授蒂姆·德特梅斯(Tim Dettmers)对于通用人工智能(AGI)及超智能的发展前景提出深刻质疑。德特梅斯指出,现阶段的运算处理器技术已接近物理极限,有限的扩展能力将成为实现AGI的最大阻碍。

他强调,AGI理论的讨论往往流于哲学层面,但其最终必须依赖实际的运算能力支撑。德特梅斯预测,现有的硬件扩展空间可能只剩下1至2年,之后任何提升将面临物理上的不可行性。

自2018年以来,GPU性能提升逐步趋于瓶颈,之后的改进主要靠低精度数据类型与张量核心(Tensor Cores)的优化。然而,这些新技术所带来的加速效果,并不像业界所宣称的那般剧烈。德特梅斯指出,虽然单一GPU性能近乎达极限,但通过硬件集成创新,仍有延长使用寿命的可能。例如,Nvidia最新GB200 NVL72系统能将加速器数量从8台提升至72台,实现约30倍的推理性能提升。

德特梅斯也对目前数百亿美元投入AI基础设施表示理解,认为随着推理需求增加,这样的投资合理且必要,但他警告若模型本身的性能与创新无法持续提升,硬件反而会变成负担。

他批评美国AI实验室过度关注谁先实现AGI的竞赛,忽视了物理世界执行能力的挑战。真正有意义的AGI必须突破纯数字领域,进入具体执行物理任务的阶段,然而这种“实体化”的扩展难题同样巨大。相较之下,他称赞中国在AI应用上的务实策略,强调AI的价值应落脚于提升生产力与实用性。

(首图来源:shutterstock)