加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

阿里开源!轻量级深度学习端侧推理引擎 MNN

发布时间:2019-05-12 10:49:45 所属栏目:建站 来源:佚名
导读:克日,阿里正式开源轻量级深度进修端侧推理引擎MNN。 AI科学家贾扬清云云评价道:与 Tensorflow、Caffe2 等同时包围实习和推理的通用框架对比,MNN 更注重在推理时的加快和优化,办理在模子陈设的阶段的服从题目,从而在移动端更高效地实现模子背后的营业
副问题[/!--empirenews.page--]

 阿里开源!轻量级深度进修端侧推理引擎 MNN

克日,阿里正式开源轻量级深度进修端侧推理引擎“MNN”。

AI科学家贾扬清云云评价道:“与 Tensorflow、Caffe2 等同时包围实习和推理的通用框架对比,MNN 更注重在推理时的加快和优化,办理在模子陈设的阶段的服从题目,从而在移动端更高效地实现模子背后的营业。这和处事器端 TensorRT 等推理引擎的设法不约而同。在大局限呆板进修应用中,思量到大局限的模子陈设,呆板进修的推理侧计较劲每每是实习侧计较劲的十倍以上,以是推理侧的优化尤其重要。”

MNN背后的技能框架怎样计划?将来有哪些筹划?本日一路来深入相识。

1、MNN是什么?

MNN 是一个轻量级的深度进修端侧推理引擎,焦点办理深度神经收集模子在端侧推理运行题目,涵盖深度神经收集模子的优化、转换和推理。今朝,MNN已经在手淘、手猫、优酷、聚划算、UC、飞猪、千牛等 20 多个 App 中行使,包围直播、短视频、搜刮保举、商品图像搜刮、互动营销、权益发放、安详风控等场景,天天不变运行上亿次。另外,菜鸟自提柜等 IoT 装备中也有应用。在 2018 年双十一购物节中,MNN 在天猫晚会笑酡颜包、扫一扫、明星豁拳大战等场景中行使。

淘宝轻量级的深度进修端侧推理引擎 MNN 项目已经在Github开源,地点如下:

https://github.com/alibaba/MNN

2、MNN的上风

MNN 认真加载收集模子,推理猜测返回相干功效,整个推理进程可以分为模子的加载理会、计较图的调治、在异构后端上高效运行。MNN 具有通用性、轻量性、高机能、易用性的特性:

通用性:

  • 支持 Tensorflow、Caffe、ONNX 等主流模子名目,支持 CNN、RNN、GAN 等常用收集;
  • 支持 86 个 TensorflowOp、34 个 CaffeOp ;各计较装备支持的 MNN Op 数:CPU 71 个,Metal 55 个,OpenCL 40 个,Vulkan 35 个;
  • 支持 iOS 8.0+、Android 4.3+ 和具有POSIX接口的嵌入式装备;
  • 支持异构装备殽杂计较,今朝支持 CPU 和 GPU,可以动态导入 GPU Op 插件,更换 CPU Op 的实现;

轻量性:

  • 针对端侧装备特点深度定制和裁剪,无任何依靠,可以利便地陈设到移动装备和各类嵌入式装备中;
  • iOS 平台上,armv7+arm64 静态库巨细 5MB 阁下,链接天生可执行文件增进巨细 620KB 阁下,metallib 文件 600KB 阁下;
  • Android 平台上,so 巨细 400KB 阁下,OpenCL 库 400KB 阁下,Vulkan 库 400KB 阁下;

高机能:

  • 不依靠任何第三方计较库,依赖大量手写汇编实现焦点运算,充实验展 ARM CPU 的算力;
  • iOS 装备上可以开启 GPU 加快(Metal),支持iOS 8.0以上版本,常用模子上快于苹果原生的 CoreML;
  • Android 上提供了 OpenCL、Vulkan、OpenGL 三套方案,尽也许多地满意装备需求,针对主流 GPU(Adreno和Mali)做了深度调优;
  • 卷积、转置卷积算法高效不变,对付恣不测形的卷积均能高效运行,普及运用了 Winograd 卷积算法,对 3x3 -> 7x7 之类的对称卷积有高效的实现;
  • 针对 ARM v8.2 的新架构特殊作了优化,新装备可操作半精度计较的特征进一步提速;

易用性:

  • 完美的文档和实例;
  • 有高效的图像处理赏罚模块,包围常见的形变、转换等需求,一样平常环境下,无需特殊引入 libyuv 或 opencv 库处理赏罚图像;
  • 支持回调机制,利便提取数据可能节制运行走向;
  • 支持运行收集模子中的部道路径,可能指定 CPU 和 GPU 间并行运行;

3、MNN焦点先容

3.1 模块计划

如上图所示,MNN 可以分为 Converter 和 Interpreter 两部门。

Converter 由 Frontends 和 Graph Optimize 组成。前者认真支持差异的实习框架,MNN 当前支持 Tensorflow(Lite)、Caffe 和 ONNX;后者通过算子融合、算子更换、机关调解等方法优化图。

Interpreter 由 Engine 和 Backends 组成。前者认真模子的加载、计较图的调治;后者包括各计较装备下的内存分派、Op 实现。在 Engine 和 Backends 中,MNN应用了多种优化方案,包罗在卷积和反卷积中应用 Winograd 算法、在矩阵乘法中应用 Strassen 算法、低精度计较、Neon 优化、手写汇编、多线程优化、内存复用、异构计较等。

3.2 机能较量

回收营业常用的 MobileNet、SqueezeNet 和主流开源框架举办较量,功效如下图:

MNN 对比于 NCNN、Mace、Tensorflow Lite、Caffe2 都有 20% 以上的上风。我们着实越发聚焦在内部行使的营业模子优化上,针对人脸检测等模子举办深入优化,iPhone6 可以到达单帧检测 5ms 阁下。

注:Mace、Tensorflow Lite、Caffe2 均行使截至 2019 年 3 月 1 日 GitHub 代码客栈的 master 分支;NCNN 因为编译题目回收 20181228 Release 预编译库。

4、MNN的开源汗青

4.1 为什么要做端侧推理?

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读