尽管进行了初期测试,OpenAI表示不会大规模采用谷歌的TPU芯片。据报道,这家微软支持的AI公司证实正在试用Alphabet的部分张量处理单元,但暂无规模化部署计划。TPU芯片即tensor processing units,是谷歌专门为机器学习任务设计的定制化ASIC芯片,旨在加速神经网络的训练与推理。TPU采用数据流驱动架构,实现高效的矩阵乘法流水线计算,减少内存访问延迟。
OpenAI表示,将继续依赖英伟达GPU和AMDAI加速器来支持其模型训练与推理工作,理由是这两家芯片厂商的产品“性能经过验证”且“已有供应协议”。
上周末有媒体报道称OpenAI已开始在某些任务中使用谷歌AI芯片,但消息人士指出这些仅是低阶版本TPU,而谷歌最先进的芯片——专为Gemini大语言模型设计——仍保留自用。
虽然近期与谷歌云达成协议满足了OpenAI更广泛的基础设施需求,但该公司明确表示短期内不会将大量算力迁移至TPU平台。
投资者和分析师此前将潜在的TPU合作视为OpenAI寻求英伟达替代方案的风向标,摩根士丹利策略师甚至认为此举将有力验证谷歌硬件的市场竞争力。
然而OpenAI的表态凸显了现有芯片合作伙伴的黏性,以及超大规模部署新硬件的复杂性。在AI算力需求持续激增的背景下,OpenAI似乎更倾向于在现有GPU-TPU混合测试基础上逐步扩展,而非全面转向TPU架构。
OpenAI的芯片路线图向市场释放信号,表明英伟达和AMD仍将是其核心供应商,这可能限制谷歌AI硬件市场份额的增长空间——尽管其TPU技术不断进步。
投资者将密切关注OpenAI下一次基础设施更新及谷歌云财报,以捕捉TPU使用率变化或新供应商多元化迹象。