美光科技于25日宣布,成为全球首家且唯一同时出货HBM3E及SOCAMM(小型压缩附加内存模块)产品的内存厂商,这两款产品专为数据中心AI服务器设计。此举将进一步巩固美光在业界的领先地位,尤其展现其在数据中心应用低功耗双倍数据速率(LPDDR)内存的开发和供应方面的优势。
美光与英伟达(NVIDIA)合作开发SOCAMM,其为一款模块化LPDDR5X内存解决方案,专为支持NVIDIA GB300 Grace Blackwell Ultra超级芯片而设计;美光HBM3E 12H 36GB也针对NVIDIA HGX B300 NVL16和GB300 NVL72平台打造;而HBM3E 8H 24GB则应用于NVIDIA HGX B200和GB200 NVL72平台,美光HBM3E产品于NVIDIA Hopper和NVIDIA Blackwell系统中的全面性部署,突显美光加速AI工作负载的关键角色。
在GTC 2025大会上,美光展示完整的AI内存与存储设备产品组合,全面支持从数据中心到边缘设备的AI应用,突显美光与生态系伙伴间的深度合作关系。美光的多样产品布局包括HBM3E 8H24GB、HBM3E 12H 36GB、LPDDR5X SOCAMM、GDDR7和高容量DDR5 RDIMM和MRDIMM。此外,美光也供应业界领先的数据中心SSD以及汽车和工业用产品组合。
美光资深副总裁暨运算与网络业务部总经理Raj Narasimhan表示:“AI正持续推动运算领域的典范转移,其中内存正是这项变革的核心。美光为NVIDIA Grace Blackwell平台AI训练和推论应用带来显著的性能提升和节能效益,而HBM和低功耗内存解决方案则有助于提升GPU的运算能力,突破现有极限。”
美光指出,SOCAMM解决方案目前已进入量产阶段,该解决方案能实现更快的数据处理速度、卓越性能、无与伦比的电源效率,以及更出色的维修便利性,能有效应对日益严苛的AI工作负载,为速度最快、体积最小、功耗最低、容量最高的模块化内存解决方案,可满足AI服务器和数据密集型应用需求。
美光并指出,延续在AI领域的竞争优势,其HBM3E 12H 36GB在相同立方体外形规格下,提供比HBM3E 8H 24GB高出50%的容量。美光将持续追求卓越的功耗和性能表现,计划将推出HBM4,以保持技术发展动能,进一步巩固其在AI内存解决方案供应商中的领导地位,美光HBM4解决方案的性能预计较HBM3E提升超过50%。
此外,美光也拥有一系列的存储产品组合,专为满足日益增长的AI工作负载而设计。美光推出多款优化SSD,可完美应对各种AI工作负载,并在GTC大会中展示各种存储解决方案。
美光表示,随着人工智能和生成式AI持续扩展并集成至边缘的终端设备,美光正与主要生态系伙伴紧密合作,为汽车、工业和消费性领域提供创新的AI解决方案。除了对高性能的需求外,这些应用更依赖更高品质、更高可靠性以及更长的寿命,以满足其使用需求。
(首图来源:美光科技)