原文:pytorch(分布式)数据并行个人实践总结——DataParallel/DistributedDataParallel

pytorch的并行分为模型并行 数据并行 源码详见我的github:TextCNN parallel,个人总结,还有很多地方理解不到位,求轻喷。 左侧模型并行:是网络太大,一张卡存不了,那么拆分,然后进行模型并行训练。 右侧数据并行:多个显卡同时采用数据训练网络的副本。 模型并行 数据并行 数据并行的操作要求我们将数据划分成多份,然后发送给多个 GPU 进行并行的计算。 注意:多卡训练要考虑通信 ...

2020-05-14 14:31 1 17004 推荐指数:

查看详情

 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM