
Anthropic计划扩大使用Google Cloud的技术,包括专为AI量身打造的加速器TPU(Tensor Processing Unit)用量扩展达到100万颗,以提升计算资源,持续推进AI研究与产品开发。Anthropic称这项扩展价值达数百亿美元,预计在2026年带来超过1GW电力规模的算力。
Anthropic的运算策略聚焦于多样化架构,除Google的TPU外,还有AWS(Amazon Web Services,亚马逊云计算服务)的Trainium、NVIDIA的GPU,Anthropic灵活运用3大芯片平台。
业界估计1GW电力规模的数据中心,成本约为500亿美元,其中大约350亿美元用于运算芯片。相较于竞争对手OpenAI Stargate(星际之门)计划目标构建10GW电力规模的算力,Anthropic也奋起直追,确保Claude模型能力持续提升,同时维持与产业各方的合作关系。
值得关注的是,亚马逊是Anthropic的主要训练伙伴与云计算供应商,双方持续开发Project Rainier,这是横跨美国多个数据中心、拥有数十万颗AI芯片的超大型运算集群,Anthropic强调仍致力于与亚马逊的合作伙伴关系。
Anthropic已为超过30万家企业客户提供服务,其中“大型账户”(意指每年营收贡献超过10万美元的客户)数量在过去一年增长近7倍。这项扩展有助于Anthropic满足迅速增加的客户需求。更强大的计算资源将支撑更严谨的各项测试、模型对齐研究,以及大规模、负责任的资源部署。
“Anthropic与Google长期合作,这次最新扩展帮助我们持续增长,提供推进先进AI所需的算力。”Anthropic首席财务官Krishna Rao表示,“从《财富》500强到AI创业公司,我们的客户都依赖Claude完成最关键的工作,而这次扩展的算力可确保我们在需求呈现指数增长的同时,让模型持续居于产业最前线。”
“Anthropic选择大幅扩展TPU使用量,反映出我们团队多年来在TPU上所见的卓越性能与成本效益。”Google Cloud首席执行官Thomas Kurian指出,“我们将持续创新,提升TPU的效率与产能,进一步拓展我们成熟的AI加速器产品组合,其中包括第七代Ironwood TPU。”
Anthropic与Google Cloud最初在2023年宣布创建合作伙伴关系,Anthropic使用Google Cloud的AI基础架构训练模型,并通过Google Cloud的Vertex AI平台与Google Cloud Marketplace向企业提供模型与技术。如今在算力需求激增下,扩大采用Ironwood TPU在内的AI加速器。
(首图来源:Google Cloud)











