Google 为 TensorFlow 机器学习框架订做的人工智能芯片 TPU(Tensor Processing Units)现在已经可以在 Google 云端平台上使用,任何开发人员都可以在平台上购买,Beta 版价格为 6.5 美元/小时。
在去年 5 月的 I/O 开发者大会上,Google 首次介绍了 Cloud TPU 的登场,这种全新的硬件由四个客制化 64GB ASICs 组成,每个 TPU 最高性能每秒都能支援 180 兆次浮点运算(teraflops),Google 相信,Cloud TPU 可以帮助专家更快的训练他们的深度学习(machine learning)模型。
目前提供的 Cloud TPUs Beta 版价格为 6.5 美元/小时,相比之下,标准 Tesla P100 GPU 在美售价为 1.46 美元/小时,但最高性能仅有约每秒 21 兆次浮点运算;TechCrunch 报导指出,虽然对开发者来说并没有太大的差别,但由于 TPU 的功耗更低,才让 Google 能以更低的成本提供这项服务。
只是目前 Beta 版本虽说是“对所有人开放”,使用上也并非按下购买按钮这么简单。为了管理访问权限,有意愿使用的开发者必须提出申请,并且明确描述想要运用 TPU 进行的内容,在通过后每个 Cloud TPU 便会开始依照售价收费。
VentureBeat报导指出,有鉴于 Google 在机器学习方面的名声,目前已有许多公司排队申请 Cloud TPU 服务,其中也包含叫车服务公司 Lyft,他们正在使用硬件来训练自驾车的 AI 模型。
Google 并不是唯一透过专用硬件来替 AI 加速的厂商,微软目前也正在运用一大批 FPGAs 来加速内部的机器学习操作,同时提供 Azure 云端平台加速联网,亚马逊(Amazon)据传也正在开发专用 AI 芯片,来加速 Alexa 设备的机器学习运算。
- Google’s custom TPU machine learning accelerators are now available in beta
- Google’s AI chips are now open for public use
(首图来源:Google)
延伸阅读:
- 【Hot Chips 29】浅谈 Google 的 TPU
- 【拓墣观点】除了围棋人机世纪对决,Google 还点燃 AI TPU、GPU 大战盘算为何?