在深度神经收集的眼里你会有多吸引人?
【资讯】几个月前,华南大学颁发了一篇关于“颜值猜测”的论文和数据集。你可以通过这个地点找到(https://arxiv.org/abs/1801.06345)。这个数据集包罗5500人,他们的得分有1到5分的吸引力。 以下是一些来自论文的例子: 尚有一些闻名的人在荟萃中。我们可以看到朱莉娅罗伯特的照片均匀得分为3.78: 看到的这张以色列闻名模特Bar Refaeli的照片得分为3.7分: 这些也许看起来像是低分,但现实上3.7分意味着在数据齐集,Bar 比约80%的人更有吸引力。 与数据集一路,作者通过实习多个模子试图按照人脸图片来猜测人的吸引力。 在这篇文章中,会重现他们的功效,顺带看看吸引力怎样。 最初的论文实现了一系列差异的模子,包罗具有手工特性的经典ML模子和3种深度进修模子:AlexNet、ResNet18和ResNext50。 这里会尽也许简化事变(由于不想从新开始实验和实习整个资源收集),这里想微调一下现有的模子,以完成这项事变。在keras中,有一个称为应用措施的模块,它是一组差异的预先实习过的模子。个中之一是resnet50,不幸的是,在keras.applications中没有ResNet18或ResNext50,以是不能再现完全沟通的事变,但应该足够靠近resnet50。 从keras.应用措施导入ResNet50 ResNet是一个深度卷积收集,由微软开拓,赢得了2015 ImageNet比赛,这是一个图像分类使命。 当我们在keras中启动resnet50模子时,我们行使ResNet50架构建设了一个模子,而且我们下载了颠末实习的在ImageNet数据集上实习的权重,犹如在ImageNet数据集上实习的一样。 论文的作者没有提到他们毕竟是怎样实习模子的,以是文章会极力做到最好。 作者想删除最后一层(“softmax”图层)并添加一个没有激活成果的麋集图层来执行回归。 你可以看到建造了第一层(resnet模子)不行实习,以是只有2049个可实习的参数,而不是23589761。 作者的打算是实习最终的麋集层,然后以较小的进修率实习整个收集。 之后,将第一层改为可实习、编译,并将模子顺应其它30个时期。 在这里,train_X是照片,即外形为numpy的阵列(350,350,3),train_Y是被标志的图像的分数。 功效 本文行使2种技能实习模子:5倍交错验证和60%-40%列车测试疏散。他们行使Pearson Correlation(PC),均匀绝对偏差(MAE)和均方根偏差(RMSE)来丈量他们的功效。这些是他们行使5倍交错验证获得的功效: 这些是他们行使60%-40%实习测试分组得到的功效: 这里会做一个80%-20%的实习测试支解,以是它相同于执行其交错验证部门的1倍。 获得了以下功效: 很是好。其它,也必要查察分数的散点图和直方图: 原始分数漫衍(尺度化): 猜测分数漫衍(尺度化): 功效看起来照旧不错的。此刻让我们来看看这个深度神经收集是怎样评价作者的。起首行使下面这张照片: 获得了2.85分,这意味着作者比这个数据齐集52%的人更有吸引力。 拍了许多照片之后,最终获得了3.15分,这意味着作者比数据齐集64%的人更具吸引力。 最后一点,行使Google Colaboratory构建和调解了这个模子,简而言之,它为您提供了一个免费行使GPU的python条记本。 (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |