

昨天在谷歌I/O开发者大会上,首席执行官Sundar Pichai简要介绍了谷歌专为机器学习和人工智能打造的定制芯片。这款芯片被命名为TPU(Tensor Processing Unit,张量处理单元),与谷歌的AI平台TensorFlow一脉相承,专为运行谷歌的决策算法而设计。目前,Facebook和微软等公司主要使用GPU来处理其机器学习和人工智能任务。
但Pichai的演讲以及配套的博客文章仅透露了TPU的少量细节。关于这款芯片,我们所知的唯一有用信息是它是一种ASIC,即应用专用集成电路。ASIC芯片并非现成购买,而是专门设计用于高效完成一项任务,且功耗极低。它们被用于应用场景固定不变的设备中,例如控制手机电池的充电。
ASIC设计人员会定制芯片晶体管的尺寸和布局,以精确匹配所需的计算类型。谷歌硬件工程师Norm Jouppi(也是TPU博客文章的作者)表示,该芯片的设计目标是每次操作所需的晶体管更少,因为机器学习所需的计算精度较低。
Pichai强调的一项重要指标是“每瓦性能”——谷歌声称TPU在这方面表现出“数量级”的提升。
完全有可能TPU芯片只是运行速度略有提升,但功耗却显著降低。ASIC芯片极其节能,这也是最近ASIC芯片在比特币挖矿领域备受关注的主要原因之一。与机器学习类似,挖矿需要计算机快速执行大量计算,并且通常也依赖于GPU。
在比特币领域,正如这个比特币论坛上所详述的那样,基于ASIC的挖矿设备在执行相同工作时比基于GPU的设备功耗低20倍。在此例中,六块AMD R9 290显卡(平均每块功耗250瓦,加上其他电脑组件)与78块DualMiner ASIC卡(通过USB供电,每块功耗2.5瓦)进行对比。两种设置均能达到相同的计算速度(5.4 Mh/s),但基于GPU的设备保守估计功耗超过1500瓦,而ASIC设备功耗不到200瓦。
总而言之,关键在于统计数据可能会产生误导,在没有看到TPU的客观基准测试之前,我们应对这些说法持谨慎态度。
ASIC芯片自20世纪60年代以来就已存在,但也存在一些显而易见的缺点。例如,ASIC芯片被设计为以非常特定的方式运行特定代码。如果谷歌的机器学习架构发生变化,TPU可能会变得毫无用处。这种情况不太可能发生,因为谷歌将Tensorflow平台用于所有事物,但仍有可能。
《华尔街日报》报道称,谷歌自2015年4月以来一直在使用TPU来加速街景地图读取路牌的速度,Pichai也在演讲中提到它们正被用于谷歌的云机器学习平台。
谷歌表示,目前不会提供有关TPU芯片的更多信息。