Arm近期发布《AI就绪指数报告》(AI ReadinessIndexReport)中指出,AI工作负载极度能耗,通常依赖消耗大量电力以供运算与冷却的数据中心。据估计,AI工作负载约占数据中心总用电量的10-20%。这样的需求引发了与碳排放相关的可持续发展性问题。
从目前看,AI相关的能源效率遇到两大挑战,分别是数据中心耗电量与碳足迹。首先,训练大型AI模型所需的电力极其惊人,如训练单一大型语言模型,能耗可达数百户家庭一整年的用电量,且冷却系统本身也相当耗电;碳足迹部分,由于AI对环境的冲击相当巨大,已成为广泛应用的一大障碍,根据国际能源总局(IEA)数据,现代数据中心约贡献全球温室气体排放量的1%。
为了解决这些电力消耗上的挑战,AI厂商与集成商主要采两种方式:第一种是采用节能芯片,通过芯片设计创新来缓解能源效率问题,如低功耗的Arm架构以最小化能源消耗,来提升每瓦性能,同时不牺牲运算能力;第二种则是通过可持续发展数据中心,采用可再生能源供电的模块化数据中心,或使用先进冷却技术与虚拟化技术也能提升运行效率。
Arm指出,目前AI数据中心正转型为使用太阳能与风能等可再生能源。此转型不仅能减少温室气体排放,也与全球可持续发展目标保持一致。像Google与Microsoft等公司已承诺其数据中心将100%使用可再生能源,为业界其他基础设施供应商树立了标杆。
此外,Google最近与Kairos Power合作,计划在其AI数据中心部署小型核能反应炉;同时,Microsoft正资助重启三里岛(Three Mile Island)的一座停机反应炉,预计于2028年为其运营提供电力。
Arm认为,随着AI应用日益庞大且复杂,AI技术基础设施显然必须随之演进。在电力与性能平衡、大规模数据处理与降低延迟等关键基础设施挑战上,业界已通过硬件与设计创新取得重大突破,而可持续发展性成为重中之重,必须通过减少AI运营的环境冲击来实现。
(首图来源:shutterstock)