Google推出第八代TPU:TPUv8ax专注训练、TPUv8x面向推理

2025年12月11日 18:50 次阅读 稿源:cnBeta.COM 条评论

Google最新一代自研人工智能基础设施正在吸引越来越多外部客户关注,该公司据悉已经开发出两款全新第八代张量处理单元(TPU),分别面向大模型训练和大规模推理两大场景。 新一代产品中,TPUv8ax“Sunfish”主要用于训练如 Gemini 等大型模型,而 TPUv8x“Zebrafish”则针对云端大规模模型推理进行优化,形成一套分工明确的内部加速平台。

在面向训练的 TPUv8ax 项目上,Google继续与博通合作,由博通定制设计团队负责从芯片到封装的一体化方案,包括核心逻辑、电源与内存子系统以及配套硬件设计,为Google交付可直接部署于其大规模数据中心的成品芯片。 通过这一模式,Google在保持高度定制化能力的同时,减少了自建完整芯片设计团队的投入,加快了新一代训练平台的落地节奏。

面向推理的 TPUv8x“Zebrafish”则引入了联发科作为合作方,不过角色更加聚焦在封装与支撑芯片等环节。 报道称,Google在该项目中直接向晶圆厂和内存供应商采购晶圆与高带宽内存,由联发科协助完成部分周边芯片和封装设计,以弥补Google在封装工艺与相关支撑芯片设计上的经验短板,同时将核心架构设计更多掌握在内部团队手中,从而在自研与外协之间取得平衡。

目前 TPUv8 系列的具体性能参数和内存容量尚未公开,但业内普遍预期,其性能将较前一代 TPUv7“Ironwood”实现新一轮跃升。 作为对比,TPUv7 在 FP8 精度下提供约 4614 TFLOPS 计算性能,并配备 192 GB HBM 内存,在同代专用 AI 加速器中处于高位水准,这也为新一代产品树立了明确的提升基线。

随着算力供给能力增强,Google云 TPU 已成为多家前沿 AI 公司的主要基础设施之一。 Ilya Sutskever 创立的初创公司 Safe Superintelligence Inc.(SSI)被曝已与Google云合作,采用 TPUv7 作为其下一代模型的训练平台;与此同时,Anthropic 也在近期扩大了对Google云 TPUv7 的使用范围,使部分 Claude 模型推理任务转移到“Ironwood”集群上执行。

外部需求的快速增长,使得Google内部评估认为,未来将向客户提供数量以百万计的 TPU 节点,这些设备被设计用于大规模横向扩展,兼顾训练与推理性能以及总体拥有成本。 报道指出,Google最新一代 Gemini 3 模型已经完全在 TPU 平台上完成训练,并且仅部署在 TPU 集群上提供服务,不再依赖英伟达或 AMD 的 GPU 加速器,这也被视为Google在自研 AI 基础设施战略上的一个重要里程碑。

对文章打分

Google推出第八代TPU:TPUv8ax专注训练、TPUv8x面向推理

1 (50%)
已有 条意见

    最新资讯

    加载中...

    编辑精选

    加载中...

    热门评论

      Top 10

      招聘

      created by ceallan