原文:pytorch(分布式)數據並行個人實踐總結——DataParallel/DistributedDataParallel

pytorch的並行分為模型並行 數據並行 源碼詳見我的github:TextCNN parallel,個人總結,還有很多地方理解不到位,求輕噴。 左側模型並行:是網絡太大,一張卡存不了,那么拆分,然后進行模型並行訓練。 右側數據並行:多個顯卡同時采用數據訓練網絡的副本。 模型並行 數據並行 數據並行的操作要求我們將數據划分成多份,然后發送給多個 GPU 進行並行的計算。 注意:多卡訓練要考慮通信 ...

2020-05-14 14:31 1 17004 推薦指數:

查看詳情

 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM