微软(Microsoft)需要更多计算资源来满足爆炸性增长的AI服务,而甲骨文(Oracle)恰巧有数以万计的NVIDIA A100和H100 GPU可供租用,促成双方合作。
甲骨文7日宣布与微软完成多年协议,微软使用Oracle Cloud Infrastructure(OCI)AI基础设施以及Microsoft Azure AI基础结构来推理AI模型。通过适用于Microsoft Azure的Oracle Interconnect,微软能够使用Azure Kubernetes Service(AKS)等服务大规模编排OCI运算,以满足Bing对话式搜索不断增长的需求
“我们与甲骨文合作,Oracle Cloud Infrastructure和Microsoft Azure AI基础结构的使用,将扩大客户访问范围并提升搜索速度”,微软搜索和人工智能全球营销负责人Divya Kumar通过声明表示。
在导入OpenAI的AI技术后,你可对Bing Chat输入文本提示、问题以及查询,它会尝试产发文本内容、寻找资讯,甚至产生各种风格的图片。Bing Chat背后支持的大型语言模型不仅需要大量GPU集群进行训练,还需要大规模推理,而甲骨文的GPU集群有助于完成这些推理工作。
Oracle宣称OCI Supercluster可扩展至4,096个OCI运算裸机执行实例,配备32,768个A100 GPU或16,384个H100 GPU,以及PB级高性能集群文件系统存储,以高效处理大规模的应用程序。
值得一提的是,根据网站流量分析工具StatCounter数据显示,2023年10月,Bing在所有平台的全球搜索市场占有率为3.1%,远远不及Google市场占有率91.6%。进一步来看,计算机上的Bing搜索市场占有率来到9%,平板电脑则有4.6%。
从流量数据似乎看不出Bing不断增长的需求,但微软AI需求显然越来越大,甚至于软件巨头要将Bing搜索引擎所用的一些机器学习模型转移到甲骨文的GPU集群上。
(首图来源:Oracle News APAC)