TrendForce最新液冷产业研究,NVIDIA GB200 NVL72机柜式服务器今年放量出货,云计算企业加速升级AI数据中心架构,使液冷技术从早期试点迈向规模化导入,AI数据中心渗透率将从2024年14%大幅提升至今年33%,并数年内持续增长。

TrendForce表示,AI服务器GPU和ASIC芯片功耗大幅提升,以NVIDIA GB200/GB300 NVL72系统为例,单柜热设计功耗(TDP)高达130-140kW,远超过传统气冷系统处理极限,遂率先导入液对气(Liquid-to-Air,L2A)技术。

受限现行多数数据中心建筑结构与水循环设施,短期L2A将成为主流过渡型散热方案。新数据中心今年起陆续完工,加上AI芯片功耗与系统密度不断升级,液对液(Liquid-to-Liquid,L2L)架构将于2027年加速普及,提供更高效率与稳定的热管理能力,逐步取代L2A,成为AI机房的主流散热方案。

目前北美四大CSP持续加码AI基础建设,本国和欧洲、亚洲启动新一波数据中心扩建。各企业也同步构建液冷架构兼容设施,如Google和AWS已在荷兰、德国、爱尔兰等地激活具液冷布线的模块化建筑,微软于美国中西部、亚洲多处部署液冷试点,今年起全面以液冷系统为标配架构。

TrendForce指出,液冷渗透率持续攀升,带动冷却模块、热交换系统与周边零部件需求扩张。接触式热交换核心组件的冷水板(Cold Plate),主要供应商含Cooler Master、AVC、BOYD与Auras,除BOYD外三家企业已在东南亚地区扩建液冷产能,以应对美系CSP客户高强度需求。

流体分配单元(CDU)为液冷循环系统负责热能转移与冷却液分配的关键模块,依部署方式分为in-row和sidecar两大类。Sidecar CDU是市场主流,台达电为领导厂商。Vertiv和BOYD为in-row CDU主力供应商,产品因散热能力更强, 适用高密度AI机柜部署。

快接头(QD)则是液冷系统连接冷却流体管路的关键组件,气密性、耐压性与可靠性是散热架构运行的安全稳定性关键。目前NVIDIA GB200项目由国际大厂主导,有CPC、Parker Hannifin、Danfoss和Staubli,以既有认证体系与高端应用经验取得先机。

(首图为示意图,来源:Pixabay)