AI人工智能技术发展蓬勃,各类型AI应用也如雨后春笋,逐步改变人类社会的生活面貌,但面对芯片出现供应不足、产量受限、价格高昂等情况,不少企业也转用云计算计算服务,务求以更低成本,支持AI进行更高效的运算及学习,推动各式各样的AI应用。在AI研发及技术推动方面,先前AWS与NVIDIA就宣布合作,全球最大型网络服务供应商,遇上最炙手可热的图像处理器生产商,带来的“云计算计算”体验与创新令人期待。

在去年底举办的AWS云计算科技发布会(AWS re:Invent)上,Amazon Web Services(AWS)就宣布与NVIDIA扩大战略合作,内容包括AWS旗下的云计算服务Amazon EC2,AWS EC2将采用NVIDIA的超级计算机芯片H200 GPU,并提供适用于大规模和尖端“生成式AI”和高性能计算工作的执行实例P5e,以及适用于微调AI、推论、图形及视频生成工作的执行实例G6和G6e。

AWS与NVIDIA两强合作自然令人瞩目,尤其是NVIDIA推出了新一代、被人称为“为AI而生”的AI超级计算机芯片H200。新一代的H200不但能以4.8 TB/s的速度提供141 GB内存,不只内存容量较H100多近两倍,带宽(Bandwidth)也较前一代H100多2.4倍。简单而言,如同样用作推动AI运算工作,H200更大的内存量能让更大更多的模型和数据集直接存储在GPU上,从而减少数据传输的延迟,H200升级后的带宽也能让数据更快发送到处理核心。

如单纯比较H100与H200的规格,从性能上来说,H200在使用特定的“生成式AI”和高性能计算(HPC)基准测试之中,性能就较H100提高达45%,如以运行Llama 2模型为例,H200的速度就较上一代快近两倍,绝对是使用“生成式AI”的最佳GPU;而作为全球大型云计算网络服务供应商,AWS正好以EC2向客户提供使用H200的最佳方式:一个成本更低、效率更高的云计算服务。

此外,会上AWS也宣布与NVIDIA合作推出采用H200的AI训练服务DGX Cloud,该服务由AWS托管,能加快尖端“生成式AI”和参数超过1兆的大型语言模型的训练速度;两强合作还包括打造世界上最快的GPU驱动人工智能超级计算机Ceiba,该计划也同由AWS托管,预计Ceiba会是台配备16,384个H200芯片、能够处理65 exaflops人工智能运算性能的超级计算机。

在AI科技发展迅速的时代,AWS与NVIDIA的强强联手成为AI研发竞赛路上最令人瞩目的合作,除了令人更期待它们在芯片、人工智能、云计算上如何再进一步,作为普通用户,两间科技巨头的合作也打开了用户以更经济的形式使用最先进“生成式AI”技术的先河,让“生成式AI”技术更普及、更易应用于日常生活之中。