加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 移动互联 > 正文

最易懂的AI芯片陈诉!人才技能趋势都在这里

发布时间:2018-11-26 09:53:06 所属栏目:移动互联 来源:智东西内参
导读:2010 年以来, 因为大数据财富的成长, 数据量泛起爆炸性增添态势,而传统的计较架构又无法支撑深度进修的大局限并行计较需求, 于是研究界对 AI 芯片举办了新一轮的技能研发与应用研究。 AI 芯片是人工智能期间的技能焦点之一,抉择了平台的基本架构和发

对环球人工智能芯片规模最具影响力的 1000 人的迁移路径举办了统计说明,得出下图所示的各国人才逆顺差比拟。

清华出品:最易懂的AI芯片陈诉!人才技能趋势都在这里

▲各国人才逆顺差

可以看出,各国人才的流失和引进是相比拟力平衡的,个中美国为人才活动大国,人才输入和输出幅度都大幅度领先。英国、 中国、 德国和瑞士等国次于美国,但各国之间人才活动相差并不明明。

二、AI 芯片的分类及技能

人工智能芯片今朝有两种成长路径:一种是连续传统计较架构,加快硬件计较手段,首要以 3 种范例的芯片为代表,即 GPU、 FPGA、 ASIC,但 CPU仍旧施展着不行更换的浸染;另一种是倾覆经典的冯·诺依曼计较架构,回收类脑神经布局来晋升计较手段, 以 IBM TrueNorth 芯片为代表。

1、传统的 CPU

计较机家产从 1960 年月早期开始行使 CPU 这个术语。迄今为止, CPU 从形态、计划到实现都已产生了庞大的变革,可是其根基事变道理却一向没有大的改变。 凡是 CPU 由节制器和运算器这两个首要部件构成。 传统的 CPU 内部布局图如图 3 所示, 从图中我们可以看到:实质上仅单独的 ALU 模块(逻辑运算单位)是用来完成数据计较的,其他各个模块的存在都是为了担保指令可以或许一条接一条的有序执行。这种通用性布局对付传统的编程计较模式很是得当,同时可以通过晋升 CPU 主频(晋升单元时刻内执行指令的条数)来晋升计较速率。 但对付深度进修中的并不必要太多的措施指令、 却必要海量数据运算的计较需求, 这种布局就显得有些力有未逮。尤其是在功耗限定下, 无法通过无穷制的晋升 CPU 和内存的事变频率来加速指令执行速率, 这种环境导致 CPU 体系的成长碰着不行超越的瓶颈。

清华出品:最易懂的AI芯片陈诉!人才技能趋势都在这里

▲传统 CPU 内部布局图(仅 ALU 为首要计较模块)

2、并行加快计较的 GPU

GPU 作为最早从事并行加快计较的处理赏罚器,对比 CPU 速率快, 同时比其他加快器芯片编程机动简朴。

传统的 CPU 之以是不得当人工智能算法的执行,首要缘故起因在于其计较指令遵循串行执行的方法,没能施展出芯片的所有潜力。与之差异的是, GPU 具有高并行布局,在处理赏罚图形数据和伟大算法方面拥有比 CPU 更高的服从。比拟 GPU 和 CPU 在布局上的差别, CPU大部门面积为节制器和寄存器,而 GPU 拥有更ALU(ARITHMETIC LOGIC UNIT,逻辑运算单位)用于数据处理赏罚,这样的布局得当对麋集型数据举办并行处理赏罚, CPU 与 GPU 的布局对好比图 所示。措施在 GPU体系上的运行速率相较于单核 CPU每每晋升几十倍以致上千倍。跟着英伟达、 AMD 等公司不绝推进其对 GPU 大局限并行架构的支持,面向通用计较的 GPU(即GPGPU, GENERAL PURPOSE GPU,通用计较图形处理赏罚器)已成为加快可并行应用措施的重要本领。

清华出品:最易懂的AI芯片陈诉!人才技能趋势都在这里

▲CPU 及 GPU 布局比拟图(引用自 NVIDIA CUDA 文档)

GPU 的成长过程可分为 3 个阶段, 成长过程如图所示:

第 一 代 GPU(1999 年 以 前 ) , 部 分 功 能 从 CPU 分 离 , 实 现 硬 件 加 速 , 以GE(GEOMETRY ENGINE)为代表,只能起到 3D 图像处理赏罚的加快浸染,不具有软件编程特征。

第二代 GPU(1999-2005 年), 实现进一步的硬件加快和有限的编程性。 1999 年,英伟达宣布了“专为执行伟大的数学和几许计较的” GeForce256 图像处理赏罚芯片,将更多的晶体管用作执行单位, 而不是像 CPU 那样用作伟大的节制单位缓和存,将 T&L(TRANSFORM AND LIGHTING)等成果从 CPU 疏散出来,实现了快速调动,这成为 GPU 真正呈现的符号。之后几年, GPU 技能快速成长,运算速率敏捷高出 CPU。 2001 年英伟达和 ATI 别离推出的GEFORCE3 和 RADEON 8500,图形硬件的流水线被界说为流处理赏罚器,呈现了极点级可编程性,同时像素级也具有有限的编程性,但 GPU 的整体编程性如故较量有限。

第三代 GPU(2006年往后), GPU实现利便的编程情形建设, 可以直接编写措施。 2006年英伟达与 ATI别离推出了 CUDA(Compute United Device Architecture,计较同一装备架构)编程情形和 CTM(CLOSE TO THE METAL)编程情形, 使得 GPU 冲破图形说话的范围成为真正的并行数据处理赏罚超等加快器。

2008 年,苹果公司提出一个通用的并行计较编程平台 OPENCL(OPEN COMPUTING LANGUAGE,开放运算说话),与 CUDA 绑定在英伟达的显卡上差异,OPENCL 和详细的计较装备无关。

清华出品:最易懂的AI芯片陈诉!人才技能趋势都在这里

▲GPU 芯片的成长阶段

今朝, GPU 已经成长到较为成熟的阶段。谷歌、 FACEBOOK、微软、 TWITTER 和百度等公司都在行使 GPU 说明图片、视频和音频文件,以改造搜刮和图像标签等应用成果。另外,许多汽车出产商也在行使 GPU 芯片成长无人驾驶。 不只云云, GPU 也被应用于VR/AR 相干的财富。

可是 GPU也有必然的范围性。 深度进修算法分为实习和揣度两部门, GPU 平台在算法实习上很是高效。但在揣度中对付单项输入举办处理赏罚的时辰,并行计较的上风不能完全施展出来。

3、半定制化的 FPGA

FPGA 是在 PAL、 GAL、 CPLD 等可编程器件基本长进一步成长的产品。用户可以通过烧入 FPGA 设置文件来界嗣魅这些门电路以及存储器之间的连线。这种烧入不是一次性的,好比用户可以把 FPGA 设置成一个微节制器 MCU,行使完毕后可以编辑设置文件把统一个FPGA 设置成一个音频编解码器。因此, 它既办理了定制电路机动性的不敷,又降服了原有可编程器件门电路数有限的弱点。

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读