阿里开源!轻量级深度学习端侧推理引擎 MNN
副问题[/!--empirenews.page--]
克日,阿里正式开源轻量级深度进修端侧推理引擎“MNN”。 AI科学家贾扬清云云评价道:“与 Tensorflow、Caffe2 等同时包围实习和推理的通用框架对比,MNN 更注重在推理时的加快和优化,办理在模子陈设的阶段的服从题目,从而在移动端更高效地实现模子背后的营业。这和处事器端 TensorRT 等推理引擎的设法不约而同。在大局限呆板进修应用中,思量到大局限的模子陈设,呆板进修的推理侧计较劲每每是实习侧计较劲的十倍以上,以是推理侧的优化尤其重要。” MNN背后的技能框架怎样计划?将来有哪些筹划?本日一路来深入相识。 1、MNN是什么?MNN 是一个轻量级的深度进修端侧推理引擎,焦点办理深度神经收集模子在端侧推理运行题目,涵盖深度神经收集模子的优化、转换和推理。今朝,MNN已经在手淘、手猫、优酷、聚划算、UC、飞猪、千牛等 20 多个 App 中行使,包围直播、短视频、搜刮保举、商品图像搜刮、互动营销、权益发放、安详风控等场景,天天不变运行上亿次。另外,菜鸟自提柜等 IoT 装备中也有应用。在 2018 年双十一购物节中,MNN 在天猫晚会笑酡颜包、扫一扫、明星豁拳大战等场景中行使。 淘宝轻量级的深度进修端侧推理引擎 MNN 项目已经在Github开源,地点如下: https://github.com/alibaba/MNN 2、MNN的上风MNN 认真加载收集模子,推理猜测返回相干功效,整个推理进程可以分为模子的加载理会、计较图的调治、在异构后端上高效运行。MNN 具有通用性、轻量性、高机能、易用性的特性: 通用性:
轻量性:
高机能:
易用性:
3、MNN焦点先容3.1 模块计划 如上图所示,MNN 可以分为 Converter 和 Interpreter 两部门。 Converter 由 Frontends 和 Graph Optimize 组成。前者认真支持差异的实习框架,MNN 当前支持 Tensorflow(Lite)、Caffe 和 ONNX;后者通过算子融合、算子更换、机关调解等方法优化图。 Interpreter 由 Engine 和 Backends 组成。前者认真模子的加载、计较图的调治;后者包括各计较装备下的内存分派、Op 实现。在 Engine 和 Backends 中,MNN应用了多种优化方案,包罗在卷积和反卷积中应用 Winograd 算法、在矩阵乘法中应用 Strassen 算法、低精度计较、Neon 优化、手写汇编、多线程优化、内存复用、异构计较等。 3.2 机能较量 回收营业常用的 MobileNet、SqueezeNet 和主流开源框架举办较量,功效如下图: MNN 对比于 NCNN、Mace、Tensorflow Lite、Caffe2 都有 20% 以上的上风。我们着实越发聚焦在内部行使的营业模子优化上,针对人脸检测等模子举办深入优化,iPhone6 可以到达单帧检测 5ms 阁下。 注:Mace、Tensorflow Lite、Caffe2 均行使截至 2019 年 3 月 1 日 GitHub 代码客栈的 master 分支;NCNN 因为编译题目回收 20181228 Release 预编译库。 4、MNN的开源汗青4.1 为什么要做端侧推理? (编辑:湖南网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |