嫌英特尔性能不足!谷歌想自己做芯片!

  • 时间:
  • 浏览:0

2016年的I/O 开发者大会上,谷歌宣布了个人研发的定制化芯片——Tensor Processing Units (TPU) ,因此 透露可能在公司内部内部结构的数据中心使用了将近一年。该定制化芯片主要用来加速公司的机器学习算法,因此 会优化公司的TensorFlow机器学习架构,但其并未透露更多的内容。

对于谷歌来说,公司不太可能在个人的云端之外提供TPU。但公司表示,因此 公司还还要通过所掌握的技术进一步的提高进入你是什么 领域的门槛。

Google还表示,大多数架构师为卷积神经网络(比如你是什么 还还要很好的识别图像的神经网络)优化了其芯片,但哪些地方地方网络负责的工作量只占到公司数据中心总工作量的5%。事实上,大偏离 应用使用的是多层感知器。

写在最后:芯片是项必要技能

日前,谷歌在一份文件中介绍了更多关于该芯片的删剪内容和因此 使用标准。可能你是一四个芯片设计者,我想要在该份文件中找到TPU工作的原理所在。谷歌方面表示TPU的运转下行速率 快一点 ,但这删剪都会基于公司的数据进行的评估。

本文转自d1net(转载)

谷歌表示公司从5006年就始于研究怎样才能在数据中心中使用GPU、FPGA和定制的ASICS(这对定义TPU有点要)。然而,当时并那么 因此 的应用多多进程 真的还还要从你是什么 特殊硬件中受益,可能我们所需的极少量工作量还还要在数据中心可能有的硬件中进行补救。

暂时来说,谷歌的深度神经网络将一齐使用的TPU和GPU。霍勒泽不愿删剪解释谷歌使用TPU的法律措施,只表示用TPU来补救Android手机语音识别所还要的“一偏离 计算”。但你说,谷歌将发布一篇阐述TPU好处的论文,因此 谷歌将继续设计因此 以因此 法律措施推动机器学习的芯片。以前看上去,GPU似乎最终就会被挤出局。霍勒泽说,“GPU可能在因此 点出局。GPU太通用了,对于机器学习针对性不强。机器学习以前就删剪都会GPU的设计初衷 。”

谷歌说这块芯片让我们省了1五个数据中心

苹果机54 想方设法要做GPU、小米也推出了个人的芯片加进华为、三星,似乎大点的科技企业都迷上做芯片了,这不,谷歌也发布了一块宣称要比GPU和CPU快15-500倍,这节奏带得,是要颠覆现有硬件版图的节奏吗?

谷歌全球数据中心网络主管乌尔斯·霍勒泽(Urs H?lzle)表示,我们今后还将研发更多以前的芯片。

谷歌、苹果机54 、小米……太大的科技企业始于尝试向半导体芯片领域发起冲击,软件与硬件,尤其是芯片的融合,力图为用户带来更好的综合使用体验,这似乎成为了科技企业的发展方向,不过以前的方向,也为我们带来了更优秀的应用体验。

在运行谷歌常规的机器学习工作量的以前,TPU的平均运转下行速率 要比标准的GPU/CPU组合(比如Intel的Haswell补救器和Nvidia 的 K500 GPU)快15-500倍。在数据中心计算功耗时,TPU还提供500-500倍的TeraOps/瓦特(可能未来使用快一点 的存储,你是什么 数字可能都会提高)。

值得注意的是,哪些地方地方数字是关于在生产中使用机器学习模型的,而删剪都会首先创建模型。

谷歌推了一块叫TPU的芯片

将GPU挤出局?

NVIDIA可我想要听到以前一段话。作为全球最大的GPU厂商,NVIDIA正在推动自身业务向AI领域扩展。正如霍勒泽指出,NVIDIA最新的 GPU一四个专门针对机器学习的型号。但显然,谷歌希望进展能更大因此 。

随着人工智能、深度学习等技术的加入,行业里对芯片的要求也那么 高。像ARM、高通、英伟达以前的芯片公司在不断研发新的芯片。比如ARM此前推出了DynamlQ芯片,公司表示未来3年-5年,使用DynamlQ技术的Cortex-A系列补救器,其人工智能运算性能将提升500倍。因此 可将CPU和SoC上特定硬件加速器的反应下行速率 提升10倍。

夸张的性能表现

谷歌不用把你是什么 芯片出售给因此 公司,不用直接与英特尔或NVIDIA进行竞争。但谷歌拥有庞大的数据中心,是这两家公司迄今为止最大的潜在客户。与此一齐,随着太大的企业使用谷歌提供的云计算服务,它们个人购买服务器(和芯片)的数量就会那么 少,也就给芯片市场带来进一步的冲击。

英特尔我们为甚在么在办

你是什么 改变发生在2013年,公司当时预测DNN可能会变得那么 流行,这可能会使公司数据中心的计算需求增加一倍。可能用传统的CPU来满足你是什么 计算量将变得很昂贵。因此 ,公司始于了一四个优先项目,还还要快速生成用于推理的定制ASIC(一齐公司买了用于培训的现成GPU)。以前做的目的是,把芯片的性能提高10倍(比起GPU)。