GPU大厂英伟达 (NVIDIA) 宣布,正式推出NVIDIA AI Foundry代工服务和NVIDIA NIM推理微服务。在此基础上,客户可以使用Meta的Llama 3.1 AI模型,借由英伟达的软件、运算硬件和专业知识,为特定领域定制化构建超级人工智能 (AI) 模型。

英伟达表示,在NVIDIA AI Foundry的方面,是由NVIDIA DGX Cloud AI平台提供支持。该平台与世界领先的公有云共同设计,为企业提供大量计算资源,并可根据AI需求的变化轻松扩展。另外,NVIDIA AI Foundry还包括Nemotron和Edify等英伟达创建的AI模型、流行的开放式基础模型、用于定制化模型的NVIDIA NeMo软件,以及NVIDIA DGX Cloud上的专用容量等。

基于以上的架构,客户可以利用专有数据、由Llama 3.1 405B和英伟达Nemotron Reward模型生成的合成数据,用以训练这些超级AI模型。

另外,借由NVIDIA AI Foundry的数据输出结果,可通过NVIDIA NIM(一个推理微服务,其中包括定制模型、优化引擎和标准API)部署到任何地方。NVIDIA NIM是一套加速推理微服务,允许企业在云计算、数据中心、工作站和PC等任何地方的NVIDIA GPU上运行AI模型。

英伟达强调,借由使用产业标准的API,开发人员只需几行代码就能利用NIM部署人工智能模型。NIM容器无缝集成Kubernetes(K8s) 生态系统,可以高效地协调和管理容器化人工智能应用。目前包括医疗保健、金融服务、零售、运输和电信领域的公司已经开始使用NVIDIA NIM微服务来支持Llama。首批使用Llama 3.1新版NIM微服务的企业包括沙特阿拉伯国家石油公司、AT&T、Uber和其他产业领导者。

(首图来源:英伟达提供)