中金公司研报称,第八代自研AI芯片TPU 8t及TPU 8i于Google Cloud Next 2026大会正式发布。这是自TPU诞生以来,Google首度将训练和推理芯片进行分开设计,且在集群组网端引入了更新的配置方案。中金公司认为,精益化分工的AI硬件基础设施有望进一步提高大模型训练及推理效率,进一步增强“供给降本—需求增加”的“飞轮效应”。从产业链维度来看,继续看好光通信、芯片定制服务、存储、晶圆代工等核心投资方向。
全文如下
中金 | Cloud Next 26:TPU v8发布,芯片及网络的精益化再升级
中金研究
第八代自研AI芯片TPU 8t及TPU 8i于Google Cloud Next 26大会正式发布。这是自TPU诞生以来,Google首度将训练和推理芯片进行分开设计,且在集群组网端引入了更新的配置方案。我们认为,精益化分工的AI硬件基础设施有望进一步提高大模型训练及推理效率,进一步增强“供给降本-需求增加”的“飞轮效应”。从产业链维度来看,我们继续看好光通信、芯片定制服务、存储、晶圆代工等核心投资方向。
摘要
芯片及存储:芯片层级来看,8t的核心增量是更平衡的计算单元设计+原生FP4+TPUDirect RDMA/Storage,目标是把训练集群真正“喂满”;而8i的核心增量是384MB片上SRAM+288GB HBM+CAE,对应的核心目的是降低长上下文、多智能体、MoE推理延迟,我们认为,上述复杂化的芯片架构设计需要晶圆代工合作伙伴的工艺支持。系统存储方面,本次发布会内容主要涉及低延迟访问,并未提及先前市场预期的DRAM池化的相关内容。
网络:TPU连接方案再升级,关注OCS和适配AI推理场景的Boardfly架构。用于训练的TPU 8t单卡scale-out带宽翻四倍、scale-up带宽翻两倍,前端Jupiter增加OCS用量,网络硬件配置提升;用于推理的TPU 8i在scale-up Boardfly架构第三层OCS全连接带来额外1.25倍1.6T光模块的增量。我们认为,MoE作为Agentic AI时代趋势,对All-to-all的通信需求增加了对低延迟的要求,Boardfly架构是特制于AI推理的scale-up方案,也增加了光模块与TPU的配比关系,打破推理会降低通信占比的顾虑(结合推理卡成本也相对更低)。展望后市,以谷歌链为代表的AI ASIC架构中,我们认为未来将出现更多网络投资占比提升的方案,AI光通信仍是有望超越大beta的长期方向。
风险
TPU相关芯片量产爬坡进度不及预期;AI模型及应用迭代进度不及预期。
(文章来源:界面新闻)
