60年技术简史,带你读懂AI的前世今生
由于这个规模较量新,并且研究的”范畴”很广,也没有图像分类这样的尺度使命和ImageNet这样的尺度数据集,许多时辰评测的要领很是主观。许多文章都是找到某一个应用点,然后天生(也也许是全心挑选)了一些很酷的图片可能视频,”有图有实情”,各人一看图片很酷,内容又看不懂,因此不明觉厉。要说办理了什么现实题目,也很难说。可是不管怎么说,这个偏向是很吸引眼球的,好比DeepFake这样的应用一下就能引起各人的乐趣和接头。我对这个偏向相识不多,下面只罗列一些应用。 style-transfer 最早的《A Neural Algorithm of Artistic Style》颁发于2015年,这照旧在GAN提出之前,不外我照旧把它放到天生模子这里了。它昔时然则火过一阵,还因此发生了一个爆款的App叫Prisma。如下图所示,给定一幅风光照片和一幅画(好比c是梵高的画),行使这项技能可以在风光照片里插手梵高的气魄威风凛凛。 图:Neural Style Transfer 朱俊彦等人在《Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks》提出的CycleGAN是一个较量风趣其的模子,它不必要Paired的数据。所谓Paired数据,就是必要一张平凡马的照片,还必要一张斑马的照片,并且要求它们内容是完全匹配的。要得到配对的数据长短常坚苦的,我们拍摄的时辰不行能找到形状和姿势完全沟通的斑马和平凡马,包罗沟通的配景。其它给定一张梵高的作品,我们怎么找到与之配对的照片?可能反过来,给定一张风光照片,去哪找和它内容沟通的艺术作品? 本文先容的Cycle GAN不要求有配对的实习数据,而只必要两个差异Domain的未标注数据集就行了。好比要把平凡马酿成斑马,我们只必要筹备许多平凡马的照片和许多斑马的照片,然后把全部斑马的照片放在一路,把全部的平凡马照片放到一路就行了,这显然很轻易。风光画变梵高气魄威风凛凛也很轻易——我们找到许多风光画的照片,然后尽也许多的找到梵高的画作就可以了。它的结果如下图所示。 图:CycleGAN text-to-image text-to-image是按照笔墨描写来天生响应的图片,这和Image Captioning正好相反。Zhang等人2016年的《StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks》是这个偏向较早的一篇文章,其结果如下图最后一行所示。 图:StackGAN和其余模子的比拟 super-resolution super-resolution是按照一幅低判别率的图片天生对应高判别率的图片,和传统的插值要领对比,天生模子由于从大量的图片里进修到了其漫衍,因此它”揣摩”出来的内容比插值结果要好许多。《Enhanced Super-Resolution Generative Adversarial Networks》是2018年的一篇文章,它的结果如下图中间所示。 图:ESRGAN结果 image inpainting image inpainting是遮挡掉图片的一部门,好比打了马赛克,然后用天生模子来”修补”这部门内容。下图是Generative Image Inpainting with Contextual Attention的结果。 图:DeepFill体系的结果 《EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning》这篇文章小心人类绘画时先画外观(线)后上色的进程,通过把inpainting分成edge generator和image completion network两个步调,如下面是它的结果。 图:EdgeConnect的结果 最新热门:自动优化收集布局和半监视进修 最近有两个偏向我认为值得存眷:一个是自动优化收集布局;另一个是半监视的进修。 自动收集优化最新的文章是Google研究院的《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》,它但愿找到一个神经收集扩展要领可以同时进步收集的精确率和服从(镌汰参数)。要实现这点,一个很要害的步调即是怎样均衡宽度、深度和判别率这三个维度。 作者发明,可以行使一种牢靠比例的缩放操纵简朴地实现对三者的均衡。最终,作者提出了一种简朴却有用的compound scaling method。假如想行使 2𝑁倍的计较资源,只必要对收集宽度增进𝛼𝑁,深度增进𝛽𝑁和增进𝛾𝑁倍的图像巨细。个中𝛼,𝛽,𝛾是牢靠的系数,最优的值凡是行使小范畴的grid search获得。通过这种要领他们实现了EfficientNet模子,这个模子行使很是少的参数就到达了很好的结果,如下图所示。 图:模子参数和精确率图 我们可以看到,EfficientNet比之前最好的模子GPipe要小8.4倍,可是结果比它还要好。 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |