由于CoWoS制程产能大幅增长,带动NVIDIA B100、Habana Gaudi和AWS Inferentia有更多出货,大摩出具最新报告指出,看好AI服务器出货量增加,并拥有强大的渠道,包括下一代GPU平台,助攻ODM厂商2024年前景乐观,针对最新下游供应链进展做一次盘点。

大摩预测,今年鸿海与工业富联的AI GPU模块出货量将增加一倍以上,AI服务器营收将年增40%以上,达到210亿美元。

广达AI服务器动能将从2024年第二季开始回升,今年AI服务器将占其服务器转速的50%以上。

大摩预计,纬创资通AI服务器转速在第二季将比第一季更强,这应该会缓解一些投资者的担忧,即H100出货量将在第三季暂停,然后B100在第四季开始增加。

技嘉相信NVIDIA的GPU交货时间将从2023年的约50周缩短,并可能在今年5-6月左右达到平衡。

大摩预计,华硕受到AI服务器增长的推动,服务器业务贡献将在2024年第一季达到个位数增长,而到2024年AI服务器可能占其服务器收入的70%以上。

金像电的AI服务器转速指引在2024年较去年同期上调至100%。

大摩预计,奇𬭎3D VC出货量将从10万台增至2024年的200-300万台,并已向CSP(云计算服务供应)客户提供自主设计的CDU(冷却液监控主机)样品。

大摩指出,信骅通用服务器在第二季有一些上涨空间,针对AI GPU能看到在NVIDIA从H100和B100进行产品过渡期间,第二季会有一些H20生产。

AMD CPU Genoa在H100 AI服务器中获得良好的关注,因为其AI工作负载方面的性能优于英特尔的Sapphire Rapid CPU。

世芯-KY主要IDM(集成组件制造)客户,大摩认为可能是英特尔,最近获得更多CoWoS-S制程产能,带动AWS Inferentia出货量持续较上季度增长。

根据大摩分析师Joe Moore的Marvell研究表明,预估到2024年底,其定制化芯片收入将超过800 mm的目标运行率,并证实迈威尔的5纳米AWS Tranium2出货量到2024年可能约为10万颗,这表明其CoWoS订单可能会减少。

(首图来源:Unsplash)