阿里巴巴机器智能团队的三年工作总结
对检测模子做全量化处理赏罚。 如上表所示,沟通 backbone 收集的环境下,我们提出的 LRSSD 在镌汰 SSD HEAD 计较劲的同时,mAP 可以不变晋升3%-4% 。从另一个角度来看,在担保检测精度稳固的环境下,我们的要领可以将模子伟大度镌汰到原本的 50% 阁下。假如再思量到量化带来的速率加成,在沟通精度下,对比原有全精度模子,我们可以得到共约 2-3 倍的真实速率晋升。
上文给出了我们近 2 年内涵线下智能—模子压缩规模所做的一些技能蕴蓄。归纳起来如下:
在技能试探的同时,我们也在起劲的将上述技能应用到现实的营业中。在这一进程中我们发明白下列几个题目:
在本文后半部门,我们起首会针对上述的几个题目先容我们已经做过的实行和沉淀出的办理方案。最后,我们列出了一些实例,展示如安在详细的营业场景中应用线下智能技能,但愿可以给列位同窗一个更直观的熟悉。 实习器材 在现实营业推广进程中,我们碰着的第一个题目是易用性题目:
为了让更多的场景都可以用上我们的处事,得到 AI 的盈利,我们提出了一套尺度化的量化实习器材。 如上图所示,起首,我们的器材输入支持多种模子名目(TensorFlow,Caffe,Mxnet 等)。其次,我们提供了两种差异的模子量化要领,一种是支持差异使命(分类,检测,支解等)的数据依靠型压缩要领(Data Dependent Compression),合用于对数据安详要求不是很高,但愿追求精度最大化的营业;另一种是数据非依靠压缩要领(Data Independent Compression),合用于对数据安详要求高,可能营业逻辑不是出格伟大的场景。 最后,在量化事变完成后,我们的器材会自动完成推理图的优化和模子加密,天生可以现实陈设的模子文件。共同对应的推理加快库即可在端上运行。从易用性和数据安详性角度出发,我们保举行使数据非依靠性的压缩要领。 今朝,该套器材作为 MNN 保举的量化器材普及应用在阿里团体内多个线下营业场景中。 推理框架 现实中碰着的第二个题目就是真实推理速率题目,事实光有易用性是不足的,实打实的营业结果才是营业最想要的。这里我们行使阿里团体其他的兄弟团队提供的推理框架:
MNN 是一个轻量级的深度进修端侧推理引擎,焦点办理深度神经收集模子在端侧推理运行题目,涵盖深度神经收集模子的优化、转换和推理。今朝,MNN 已经在手淘、手猫、优酷、聚划算、UC、飞猪、千牛等 20 多个 App 中行使。选用常见的深度神经收集模子 MobileNet V2 和 SqueezeNet V1.1 作为测试样本:Android 方面,以小米 6 为例,MNN 在 CPU 和 GPU 上领先业界至少 30%;iOS 方面,以 iPhone 7 为例,MNN 在 CPU 和 GPU 上领先业界至少 15%。
(编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |