对于 AI 人工智能领域,很多软件大厂都认为这是未来新趋势,并努力投入在其中。Google 身为搜寻领域龙头自然也有自己的一套,但除了要有好的软件来让 AI 发挥能力,甚至能做到深度学习,还得要有硬件的帮忙,虽说现成的硬件中,Intel 与 NVIDIA 也在这一块有所耕耘,但 Google 也同样认为“硬件也可以自己做”的情况下,蹦出了一个叫做 TPU (Tensor Processing Units,张量处理器)的新芯片,而这个芯片却让在 AI 领域有不错成绩的 NVIDIA 与半导体大厂 Intel 倍感压力,为什么呢?
为了解决人工神经网络能力日益增长后产生的问题,Google 设计了自己的 TPU 来执行这些工作,现阶段 Google 的目标是从 2013 年起,将深层人工神经网络的成本绩效要高于 10 倍 GPU 效能,这些说法来自于 Google 的论文“In-Datacenter Performance Analysis of a Tensor Processing Unit”。
Google TPU 芯片在 2016 年的 Google I/O 大会上就亮相过,但没有公开太多的细节资料,或许是因为这个芯片还没有开发到最完美的程度,但这阵子 Google 在自家部落格上突然谈到 TPU ,也公开不少资料,甚至也跟一些 Intel Haswell CPU 与 NVIDIA K80 GPU 来个小小的对决,对觉得内容为处理机器学习后的表现,而 TPU 在这方面比传统 CPU + GPU 组合的表现快了 15 至 30 倍,表现出 TPU 的专长领域确实跟人工智能深度学习的领域有很大关系:
※图片来源
但这次测试也有些问题,首先这项测试专注在 AI 学习后的结果,前半段用大量数据训练人工神经元的部分以旧芯片处理,至于功耗方面,Google TPU 有着比过往芯片组合优秀的表现,能耗比领先 30 至 80 倍。即便 TPU 还有待改进的地方,但对于深耕人工智能领域的 NVIDIA 与 Intel 来说是一大警讯,意想不到的对手带着自己的人工智能芯片出来叫阵了,自家产品能不能弯道超车,都还得靠这方面的人才与资源来达成:
Google TPU 的运作方式并非取代 CPU ,而是以协同处理器的方式在系统中运作,例如透过 PCI-E 总线与系统上的 CPU 协同运作,Google 的开发团对表示,是由 Server 主机向 TPU 发出指令,而不是 TPU 自己提取指令,因此 TPU 与 FPU(浮点处理器) 协同处理器比起来,更像是 GPU 的定位。Google 并没有要打造出最强最厉害的 TPU ,即便在 AI 领域已经有不错的表现,但 Google 认为 TPU 更适合大规模部属。Intel 不久前已经宣布今年将推出 AI 专用的芯片,相信 NVIDIA 也会做点什么来避免落于下风。人工智能除了软件领域引起热潮,相信硬件领域也有大厂们互相较劲。