一触即发:AI处理赏罚器之战或将于2018开启?
就在本年十二月份,Nvidia公布推出了一款基于PC的GPU Titan V,专为深度进修而计划。新的GPU基于Nvidia的Volta架构,该架构操作了Nvidia称之为Tensor Cores的新型焦点技能。Nvidia所做的是开拓具有伟大架构,专门用于处理赏罚深度进修和神经收集计较的需求。 Titan V包括210亿个晶体管,可以或许提供110 teraflops的深度进修机能。 Nvidia将方针对准从事人工智能和深度进修的开拓职员。Titan V.公司首创人兼首席执行官Jensen Huang在一次消息宣布会上暗示,“Titan V是有史以来为小我私人电脑开拓的最强盛的GPU。我们对Volta的愿景是敦促高机能计较和人工智能的外部极限。我们开拓了新的处理赏罚器架构、指令、数字名目、内存架构和处理赏罚器链接。跟着泰坦V的呈现,我们把Volta推向天下各地的研究职员和科学家手中。” 一个由张量组成的天下 提到张量的观念,那就不得不提谷歌公司了。在已往的一年,这个搜刮巨头宣布了一个名为TensorFlow的深度进修开拓的已经风行的开源框架。如Google所述,“TensorFlow是一个行使数据流图举办数值计较的开源软件库。图中的节点暗示数学运算,而图边暗示在它们之间通讯的多维数据阵列(张量)。机动的系统布局应承您行使单个API将计较陈设到桌面、处事器或移动装备中的一个或多个CPU或GPU上。”
TensorFlow的呆板进修应用措施库包罗面部辨认、计较机视觉,虽然尚有其他应用措施中的搜刮,在2016年的时辰就已经被证明很是风行,以至于2016年英特尔一向致力于优化其处理赏罚器来运行TensorFlow。在2017年,谷歌还宣布了针对移动和Android开拓者的精简版TensorFlow。 但Google没有让软件成为人工智能野心的终点。在2016年,该公司宣布了第一代称为张量处理赏罚单位(TPU)的新处理赏罚器。 Google的TPU是一个专为呆板进修而计划的ASIC,专为运行TensorFlow而量身定制。而第二代TPU在本年五月份公布,据Google称,它可以或许提供高达180 teraflops的机能。 作为加拿大多伦多第44届计较机系统布局国际研讨会(ISCA)的一部门,Google于2017年6月宣布了一项研究陈诉,将其在数据中心陈设的TPU与Intel Haswell CPU和陈设在统一数据中心的Nvidia K80 GPU举办了较量, TPU均匀比GPU和CPU执行速率快15到30倍。每瓦TPU的TOPS也跨越约30到80倍。 Google暗示,TPU正在敦促其全部在线处事,如搜刮、街景、Google相册和Google翻译。 在一份具体先容最新热塑性聚氨酯(TPU)的文章中,Google的工程师们暗示,早在六年前,当Google发明本身将深度进修融入越来越多的产物时,热塑性聚氨酯的需求就呈现了。Google工程师以为,“假如我们假设人们天天只行使Google语音搜刮三分钟,而且在我们正在行使的处理赏罚单位上运行深度神经收集来处理赏罚语音辨认体系,那么我们必需更加的增进Google的数据中心!” Google的工程师在计划TPU时暗示,他们回收了他们所说的“紧缩性计划”。“这种计划被称为紧缩性的,由于数据通过芯片活动,这让人想起心脏泵血的方法。矩阵乘法单位MXU中的非凡范例的脉动阵列针对执行矩阵乘法时的功率和面积服从举办了优化,不得当于通用计较,于是它做了一个工程折衷:限定寄存器、节制和操纵的机动性,以调换服从和更高的操纵密度。” 在一些很是高端的AI应用中,TPU也已经证明白本身。 TPU是Google闻名的AlphaGo AI背后的大脑,在客岁击败了天下冠军,引起人们对付人工智能的存眷。颠末短短几个月的实习,AlphaGo的最新版本AlphaGo Zero就可以或许将本身的手段远远高出人类专家。对付国际象棋(一个伟大的游戏,可是比Go要小得多),在几个小时内的实习之后也能到达较量明显的结果。 FPGA - AI比赛中的黑马 那么,TPU是AI的将来,对吗?微软以为,在可扩展性和机动性方面,基于FPGA的办理方案也许将优于CPU、GPU或TPU提供的办理方案。
尽量基于处理赏罚器的办理方案在某种水平上因为其计划而范围于特定的使命,可是因为FPGA的机动性和可编程性,以是或者可以行使FPGA来提供更轻易的进级和更好的机能。按照微软的说法,在Intel Stratix 10 FPGA上运行时,微软的Project Brainwave以39.5 teraflops的速率执行,延时不到1毫秒。 FPGA是否为人工智能提供最佳选择与其他方面一样值得商讨。微软以为缔造人工智能专用ASIC的出产本钱太高,而另一些人则以为FPGA将永久无法完全实现专为人工智能计划的芯片机能。 在3月份的“现场可编程门阵列国际研讨会”(ISFPGA)上颁发的一篇文章中,一组来自英特尔加快器架构尝试室的研究职员评估了两代英特尔FPGA(Arria10和Stratix 10)与Nvidia Titan X Pascal Titan V)处理赏罚深度神经收集(DNN)算法。据英特尔研究职员称:“我们的研究功效表现,Stratix 10 FPGA的机能(TOP / sec)比Titan X Pascal图形处理赏罚器在[矩阵乘法](GEMM)操纵上的机能进步了10%、50%乃至5.4倍。在Ternary-ResNet上,Stratix 10 FPGA可以比Titan X Pascal GPU提供60%的机能晋升,机能功耗比进步2.3倍。我们的功效表白,FPGA也许成为加快下一代DNN的首选平台。” 谁将戴上皇冠? 在这个特定的时刻点,就整体机能而言,很难不争论这些硬件在人工智能规模的示意,也很难不较量巨头们之间的示意。可是,就小编的粗浅熟悉来看,许多硬件并不是纯真的谁代替谁的脚色,也许面临差异的用户、差异的细分规模就会有差异的选择, 就落地的应用来说,自动驾驶汽趁魅正在成为将人工智能应用于更普及的公家意识中,这也许是呆板人、制造业、乃至娱乐规模的前进,真正敦促人工智能的成长,但这并不是为了阻断新兴应用的降生之路。 当成长步入正轨时,它也许不是一家企业主宰人工智能规模,将来也许会看到硬件规模的争斗越来越剧烈,也或者是此外,时刻会证明统统。 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |