
根据Truthdig与Tom's Hardware的报道,OpenAI首席执行官Sam Altman在去年9月的内部备忘录中提出一项前所未见的计划:在2033年前打造高达250GW的计算能力。该电力规模已逼近一个国家的用电需求,约等同于支撑整个印度15亿人口的电力消耗;如果成真,其碳排放量将超过石油巨头埃克森美孚(ExxonMobil)两倍,成为全球最大的企业级排放源。
报道指出,支撑250GW运算能力所需的GPU数量将达到6,000万颗,以现行两年一换代的经济寿命推算,OpenAI必须每年采购3,000万颗GPU才能维持运行。极高的电力密度和运转负载,也使AI训练与推论成为全球增长最快的能源消耗来源之一。
CSP全面扩建AI数据中心,未来“耗电怪兽”正悄然孵化巨量用电与庞大的芯片需求已不再只是OpenAI的课题。全球大型云计算服务供应商,包括Microsoft Azure、Amazon AWS与Google Cloud,也正投入比以往任何时期更大规模的数据中心扩建。业界普遍预期,这些CSP在未来十年将与钢铁、水泥与炼油产业并列全球主要耗电者,其AI服务器全年无休,以推论与训练为核心的运算模式,使数据中心用电曲线呈现出前所未有的陡峭增长。
在这波AI电力竞赛下,冷却需求成为另一个被放大的环节。数据中心规模暴增,使得大量冷却用水与设备能耗拉高城市负荷,也造成局部电网品质下降与电价波动。多个国家已警告,数据中心集中区域可能面临电力紧缩,部分地区甚至提前限制用电或推迟新数据中心建案,以避免影响一般家庭与企业的供电品质。
半导体供应链资源压力倍增能源压力并不仅止于数据中心端。报道进一步指出,AI芯片需求的爆炸式增长,使全球半导体供应链在启动许多厂房,其中包括台积电与三星的多项先进制程基地。以台积电为例,Fab 25单厂的用电量即需至少1GW,可支撑约75万户台湾家庭;每日用水量约10万吨,相当于近20万名台中市民的日常用水。除了水电消耗,先进制程所需的化学物质也引发健康与环境疑虑。
这也意味着,AI电力消耗的冲击早已不限于模型与服务器端,而是沿着供应链一路蔓延至芯片制造、化学品处理,再到矿产开采与物流运输。GPU制造所需的稀土、金属、超纯水与能源,都对地球提出更高的负荷。
AI扩张重塑全球能源版图,电力和资源真的够用吗?随着美国、中国、欧洲与东南亚等市场相继投入AI基础建设,科技竞争也逐渐演变成能源与资源竞赛。报道指出,AI用电增长速度可能在未来十年内超过再生能源添加速度,电力供需缺口、局部停电风险与电网负载问题将成为新常态,各国政府也开始重新查看数据中心与半导体厂的环评与电力分配策略。
在这股浪潮中,报告提出一个更根本的疑问:当硅谷CEO正不断追求更大的模型、更高的算力与更密集的GPU部署时,除了思考“AI还需要多少电”,更必须面对关于地球资源的问题——“自然资源究竟还能支撑多少人工智能的扩张”。
(首图来源:pixabay)










