显卡厂商的好日子到头了?Google发布TPU人工智能服务器芯片技术

谷歌google-tpu-board

Google今天在一篇论文中公布了Tensor人工智能服务器处理芯片TPU的详细资料。TPU是一种专门为本地高效率处理人工智能计算任务设计的服务器芯片,Google公司从2015年就开始使用这种芯片,虽然2016年Google曾经曝光该芯片的存在,但是并未提供任何技术方面的细节信息。

在今天的全国工程师学术会议上,TPU论文的75位联合作者之一,David Patterson就TPU的技术论文发表了演讲。

Patterson指出,Google依赖TPU来完成人工智能神经网络第二阶段的计算任务。首先,在第一阶段Google用大量数据训练神经网络,这个阶段的计算任务主要依靠服务器GPU来加速,然后,Google使用TPU来更有效率地推断新数据,Google宣称GPU在新数据推断方面的性能表现大大优于GPU或者x86处理器芯片。

“虽然一些应用的处理器使用率并不高,但是TPU的处理速度依然能够比当下的GPU或CPU快上15-30倍”,Google在论文中写道。Google所指的“当下的GPUS和CPU”,分别是Nvidia的Tesla K80和英特尔Haswell 架构Xeon E5-2699 v3这样的“当红炸子鸡”。

过去五年,AMD和Nvidia两大显卡厂商凭借人工智能热潮重新回到IT产业聚光灯下,而显卡GPU也成了深度学习的默认低成本基础设施技术,这其中Google也起到不小的推动作用。但是Google、微软等IT巨头从未放弃其他人工智能芯片技术领域的探索,这其中包括用来处理多种AI工作任务的FPGA芯片技术。而TPU则是Google的原创技术,已经应用于Google图像搜索、GoogleCloud Vision API等生产环境。

TPU处理器芯片的内存是K80这样的GPU芯片的3.5倍,而体积却更小,每瓦特功耗的处理性能则是GPU的30-80倍。

相比大多数IT互联网企业,Google是人工智能神经网络的先行者和践行者,早在2013年Google就宣称为了满足不断膨胀的人工智能计算需求,Google需要将当时的数据中心服务器计算力提高一倍,而如果基于通用芯片实现这一点,成本会高得难以承受,因此Google开始研发性能价格比10倍于GPU的人工智能专用芯片。

为了提高TPU的部署效率,Google的TPU没有选择于CPU集成,而是以协处理器的方式直接插入PCIe总线,可以像GPU一样在现有的服务器上“即插即用”。从设计架构的角度来看,TPU更接近FPU(浮点运算协处理器)而不是GPU。

通常来说,在TPU上运行代码与使用TensorFlow开源深度学习框架一样简单,更多TPU相关技术细节请参考Google发布的论文原文(获取论文下载地址请关注IT经理网微信号:ctociocom,后台回复:TPU论文)。

第一时间获取面向IT决策者的独家深度资讯,敬请关注IT经理网微信号:ctociocom

   

除非注明,本站文章均为原创或编译,未经许可严禁转载。

相关文章:


关于作者

传媒领域资深人士,IT行业净坛使者。 联系邮箱:zhanglin@ctocio.com

X