
美国AI公司Anthropic上周四(10/23)宣布,将大幅扩展使用Google Cloud的TPU(Tensor Processing Unit)计算资源,计划取得多达100万颗TPU的使用权,并于2026年激活超过1GW算力。这项合作金额估达数百亿美元,是Anthropic成立以来规模最大的TPU扩展案。
TPU是Google为AI设计的专用加速芯片,针对深度学习与TensorFlow优化,具高性能与低功耗特性。相较之下,Nvidia GPU属通用图形处理器,支持多样AI与科学运算。TPU以固定架构提升效率与成本效益,GPU则以灵活性与完整开发生态取胜。
Anthropic与Google Cloud自2023年便展开合作,Anthropic使用Google Cloud的AI基础架构来训练Claude模型,并通过Vertex AI与Google Cloud Marketplace对企业提供服务。目前已有超过30万家企业使用Claude,包括Figma、Palo Alto Networks与Cursor等。
根据双方的协议,该扩展将提供Anthropic训练与部署下一代Claude模型所需的算力,并搭配Google Cloud的数据存储、安全与开发服务。Google指出,这是Anthropic迄今最大规模的TPU使用扩张,且TPU具备出色的价格性能比与能源效率。
Google Cloud首席执行官Thomas Kurian说明,Anthropic选择扩展TPU使用量,反映其团队多年来在TPU上获得的卓越性能与效率成果。他同时提到,Google正在持续优化AI加速器产品线,包括代号为Ironwood的第七代TPU,以进一步提升整体运算能力。
另一方面,Anthropic强调该公司仍维持其多云架构策略,灵活运用Google TPU、Amazon Trainium与Nvidia GPU三大平台,确保运算效率与成本弹性。未来还会继续与主要云计算伙伴Amazon合作推动Rainier运算集群项目。
随着这批百万TPU与1GW级算力于2026年陆续上线,Anthropic预期能加速Claude模型的研发、测试与安全部署,强化其在全球AI竞争中的技术实力,并推动生成式AI进入更高端的发展阶段。










