谷歌宣布,其最新一代的张量处理单元(TPU)是定制设计的芯片,可以加速机器学习工作负载,在速度和能源效率方面可以超过Nvidia的A100 AI GPU。
TPU是谷歌的专用集成电路(ASIC),用于为其自己的人工智能服务(如搜索,YouTube和LaMDA)提供动力。开发人员和研究人员也可以通过Google Cloud Platform使用它们。这本质上是支撑公司新巴德聊天机器人的处理能力。
据谷歌称,其新的TPU v4 Pods由4096个TPU芯片组成,通过高速网络连接,可以为AI训练提供超过4 exaflops的峰值性能。这是Nvidia的DGX SuperPOD性能的两倍多,后者使用140个A100 GPU,提供1.8 exaflops。
此外,该公司声称其TPU v4 Pods比Nvidia的GPU更节能,每次浮点运算(FLOP)的功耗减少2.2倍。这意味着谷歌可以在运行大规模机器学习模型的同时减少碳足迹并节省电力成本。
谷歌表示,其TPU v4 Pods与前几代TPU完全兼容,可以运行流行的机器学习框架,如TensorFlow,PyTorch和JAX。Google 还提供抢占式 TPU,比按需实例便宜 70%,用于容错机器学习工作负载。
谷歌宣布这一消息之际,人工智能硬件市场的竞争正在升温,英伟达在GPU领域占据主导地位,英特尔、AMD和Graphcore等其他参与者也在开发自己的人工智能芯片。谷歌希望其TPU v4 Pods能够使其比竞争对手更具优势,并吸引更多客户使用其云平台。
未经允许不得转载:表盘吧 » 谷歌声称其TPU v4超级计算机芯片比Nvidia AI处理器更快