加入收藏 | 设为首页 | 会员中心 | 我要投稿 湖南网 (https://www.hunanwang.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 建站 > 正文

漫衍式入门,奈何用PyTorch实现多GPU漫衍式实习

发布时间:2019-05-06 19:14:04 所属栏目:建站 来源:机器之心编译
导读:详细来讲,本文起首先容了漫衍式计较的根基观念,以及漫衍式计较怎样用于深度进修。然后,罗列了设置处理赏罚漫衍式应用的情形的尺度需求(硬件和软件)。最后,为了提供切身实践的履历,本文从理论角度和实现的角度演示了一个用于实习深度进修模子的漫衍式算法(

我们可以调解影响上述不等式的三个因子,从漫衍式算法中获得更多的甜头。

  • 通过以高带宽的快速收集毗连节点,来减小 Tsync。
  • 通过增进批巨细 B,来增进 Tcomp。
  • 通过毗连更多的节点和拥有更多的副原来增进 R。

本文清楚地先容了深度进修情形中的漫衍式计较的焦点头脑。尽量同步 SGD 很风行,可是也有其他被频仍行使的漫衍式算法(如异步 SGD 及其变体)。然而,更重要的是可以或许以并行的方法来思索深度进修要领。请留意,不是全部的算法都可以开箱即用地并行化,有的必要做一些近似处理赏罚,这粉碎了原算法给出的理论担保。可否高效处理赏罚这些近似,取决于算法的计划者和实现者。

原文地点:

https://medium.com/intel-student-ambassadors/distributed-training-of-deep-learning-models-with-pytorch-1123fa538848

【本文是51CTO专栏机构“呆板之心”的原创译文,微信公家号“呆板之心( id: almosthuman2014)”】

戳这里,看该作者更多好文

【编辑保举】

  1. 比拟复现34个预实习模子,PyTorch和Keras你选谁?
  2. 漫衍式体系的“蜚语虚名”
  3. 本身下手撸一个漫衍式IM(即时通信) 体系
  4. 漫衍式体系Kafka和ES中,JVM内存越大越好吗?
  5. 深入浅出百亿哀求高可用Redis(codis)漫衍式集群揭秘
【责任编辑:赵宁宁 TEL:(010)68476606】
点赞 0

(编辑:湖南网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读