
Google 发布第八代 TPU:训练与推理首次分道扬镳
Google Cloud 于本周三宣布,其第八代自研 AI 芯片(TPU)将拆分为两款独立产品:TPU 8t 专注于模型训练,TPU 8i 则面向推理任务。这也是 Google 首次在 TPU 产品线中明确区分训练与推理场景。
性能提升与成本优化
新 TPU 带来了显著的代际进步:
- 训练速度:相较上一代提升至多 3 倍
- 性价比:每美元性能提升 80%
- 集群规模:支持超过 100 万颗 TPU 协同工作
Google 强调,这些改进意味着客户可以用更低的能耗和成本获得更强的算力。值得关注的是,Google 一直将这类芯片称为"TPU"而非"GPU",源于其最初的低功耗张量处理架构命名。
并非"Nvidia 替代品"
尽管自研芯片进展迅速,Google 明确表示,无意全面取代 Nvidia 产品。目前 Google Cloud 仍同时提供基于 Nvidia 芯片的基础设施服务,并承诺今年晚些时候将上线 Nvidia 最新一代芯片 Vera Rubin。
这一策略与微软、亚马逊等其他超大规模云厂商一致——自研芯片主要用于补充差异化需求,而非全面替代 Nvidia。讽刺的是,芯片行业分析师 Patrick Moore 早在 2016 年 Google 推出首款 TPU 时曾预测"这对 Nvidia 和 Intel 是坏消息"。而如今 Nvidia 市值已接近 5 万亿美元,这一预测显然落空。
从 Nvidia 的视角看,Google 作为 AI 云厂商的增长,实际上反而为英伟达带来了更多业务机会。
与 Nvidia 的深度合作
更重要的是,Google 透露已与 Nvidia 达成合作协议,共同优化基于 Nvidia 系统的网络性能。双方正在强化一项名为 Falcon 的软件定义网络技术,该技术由 Google 于 2023 年创建并开源,隶属于开放计算项目(Open Compute Project)框架。
这项合作旨在让 Nvidia 架构在 Google 云中的运行效率进一步提升。


评论