谷歌第一告诉世界关于其张量处理单元,背后的战略似乎足够清楚:通过在问题上抛出定制硬件来速度测量速度。使用商品GPU训练机器学习模型;使用自定义TPU部署这些培训的模型。
新一代谷歌的TPU旨在处理同一芯片的这些职责,培训和部署。新一代也是更快的,无论是自身,也是在被称为“TPU Pod”中的其他人的时候。
但更快的机器学习不是这种设计的唯一受益。TPU,特别是在这种新形式中,构成了Google建立端到端机器学习管道的另一个金额,从而从摄入数据到部署培训的模型。
机器学习:管道贯穿它
现在使用机器学习的最大障碍之一是将完整的管道组合在一起的数据摄入量,归一化,模型培训,模型和部署,这是多么艰难。这些碎片仍然很大,不协调。像百度这样的公司拥有暗示想要创建一个单一,统一,解压缩和去解决方案,但到目前为止,这只是一个概念。
这种解决方案的最可能的地方是在云中。随着时间的推移,更多的数据收集了机器学习(以及其他一切,真正)默认生活在那里。所需的硬件是从中产生可操作的结果。给人们单一端到端,云上的机器学习工作流程,默认情况下只有几个旋钮,他们会很高兴地建立在它的顶部。
大多数人已经意识到,谷歌的愿景是,管道的每个阶段都可以在云中执行,尽可能接近数据,以获得最佳速度。使用TPU,谷歌还寻求提供许多具有定制硬件加速的阶段,可以按需缩放。
新的TPU是以多种方式提高管道加速度。一个加速来自能够重组多个TPU。另一个来自能够从相同的硅板培训和部署模型。随着后者,随着新数据进入,逐步恢复模型更容易,因为数据不必随时移动。
在数据上加速操作的数据进行优化操作 - 也与作品中的其他机器学习性能改进相当正确,例如一些提出Linux内核修复和用于机器学习数据访问的通用API。
但是你愿意把自己锁定在tensorflow吗?
谷歌的愿景中有一个可能的下行文件:如果您使用合适的机器学习框架,TPU提供的性能提升仅适用于它。这意味着谷歌自己的Tensorflow。
这不是tensorflow是一个不好的框架;实际上,这是相当不错。但它只是许多框架,每个框架都适用于不同的需求和用例。因此,TPUS支持的限制只是Tensorflow意味着您必须使用它,无论其适合如何,如果要挤出最大的性能谷歌的ml云。对于特定工作,另一个框架可能更方便,但它可能不会尽快培训或服务预测,因为它将仅托运到仅在GPU上运行。
这一切都没有规定谷歌可以引入其他硬件的可能性,例如客户 - 可重编程FPGA,允许谷歌直接赞助的框架也有优势。
但对于大多数人来说,能够使用TPU来加速某些事情的不便,通过提供管理的云的一切渠道的机器学习工作的一体化管道,将超越某些事情。所以,就像它一样,准备使用tensorflow。
这个故事,“谷歌的机器学习云管道解释”最初是发表的infoworld. 。