加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

不懂卷积神经收集?别怕,看完这几张萌图你就大白了!

发布时间:2019-05-17 21:25:37 所属栏目:建站 来源:佚名
导读:这篇文章用最简明易懂的方法表明白卷积神经收集(CNN)的根基道理,并绕开了内里的数学理论。 同时,假如想对从新开始构建CNN收集之类的题目感乐趣,作者保举去读《 Artificial Intelligence for Humans Volume 3: Deep Learning and Neural Networks》中第1

这篇文章用最简明易懂的方法表明白卷积神经收集(CNN)的根基道理,并绕开了内里的数学理论。

同时,假如想对从新开始构建CNN收集之类的题目感乐趣,作者保举去读《 Artificial Intelligence for Humans Volume 3: Deep Learning and Neural Networks》中第10章节的内容。

不多说了,开始CNN之旅——

收集布局

CNN的模子凡是成立在前馈神经收集模子之上,它的布局你也应该不生疏。差异是的,“潜匿层”将被以下这些层代替:

  • 卷积层(Convolutional Layers)
  • 池化层(Pooling Layers)

全毗连层(浓密层,Dense Layers)

布局相同下图:

不懂卷积神经收集?别怕,看完这几张萌图你就大白了!

卷积

在此阶段,输入图像被一个grid扫描,并作为输入转达到收集。之后,这个收集将一层卷积层应用于输入的图像,将它支解成包括3张图像的三维立方体布局。这3三张图像个框架别离泛起原图的赤色、绿色和蓝色信息。

随后,它将卷积滤波器(也称神经元)应用到图像中,和用PhotoShop中的滤镜突出某些特性相似。譬喻在动画片《Doc And Mharti》中,用罗伯茨交错边沿加强滤波器处理赏罚过的结果如下图所示:

不懂卷积神经收集?别怕,看完这几张萌图你就大白了!

原图

不懂卷积神经收集?别怕,看完这几张萌图你就大白了!

处理赏罚后

可以想象,拥有100多个差异滤波器的神经收集筛选伟大特性的手段有多强盛,这将大大助力它辨认实际天下中事物。一旦神经收集已经将卷积滤波器应用到图像中,我们就能获得特性/激活图。

特性图谱会被指定地区内的特定神经元激活,好比我们将边沿检测滤波器添加到下面左图中,则它的激活图如右图所示:

不懂卷积神经收集?别怕,看完这几张萌图你就大白了!

这些点代表0的行(表白这些地区也许是边沿)。在二维数组中,“30”的值表白图像地区存在边沿的也许性很高。

激活层

当我们有了激活图,就能在个中让激活函数大显技艺了,我们用研究职员的首选函数——ReLU激活函数(批改线性单位)举个例子。然而,一些研究职员如故以为用Sigmoid函数或双曲切线能获得提供最佳的实习功效,但我不这么以为。

行使激活层是在体系中引入非线性,这样可以进步输入和输出的一样平常性。ReLU(x)函数只返回max(0、x)或简朴地返回激活图中的负权值。

池化层

之后的最佳做法凡是是在特性图中应用最大池化(或任何其他范例的池)。应用最大池化层的道理是扫描小型grid中的图像,用一个包括给定grid中最高值的单个单位替代每个grid:

不懂卷积神经收集?别怕,看完这几张萌图你就大白了!

这样做的重要缘故起因之一是,一旦我们知道给定特性在一个给定的输入地区,我们可以忽略特性简直切位置将数据广泛化,镌汰过拟合。举个例子,纵然实习精度到达99%,但拿到没见过的新数据上测试时,它的准确度也只有50%。

输出层

最大池化层后我们讲讲剩下的另一个激活图,这是转达给全毗连收集的一部门信息。它包括一个全毗连层,将上一层中每个神经元的输出简朴映射到全毗连层的一个神经元上,并将softmax函数应用到输出中,就是和我们之条件到的ReLU函数相同的激活函数。

由于我们将用神经收集将图片分类,因此这里行使了softmax函数。softmax输出返回列表的概率求和为1,每个概率代表给定图像属于特定输出类的概率。但其后涉及到图像猜测和修复使命时,线性激活函数的结果就较量好了。

值得留意的是,讲到这里我们只思量了单卷积层和单池层的简朴环境,假如要实现最佳精度凡是必要它们多层堆叠。颠末每个完备的迭代后,通过收集反向按照计较丧失更新权重。

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读