原文:MLHPC 2016 | Communication Quantization for Data-parallel Training of Deep Neural Networks

本文主要研究HPC上進行數據並行訓練的可行性。作者首先在HPC上實現了兩種通信量化算法 Bit SGD以及閾值量化 ,然后提出了自適應量化算法以解決它們的缺點。此外,發揮出量化算法的性能,作者還自己實現了一個Allreduce算法。 Bit SGD可以實現良好的重構和較低的誤差,但與閾值量化相比,它的計算開銷更大,並且壓縮率不能達到 倍以上。閾值量化速度很快,但是不同的模型需要設置不同的閾值,而且 ...

2020-04-12 21:08 6 342 推薦指數:

查看詳情

《Population Based Training of Neural Networks》論文解讀

  很早之前看到這篇文章的時候,覺得這篇文章的思想很朴素,沒有讓人眼前一亮的東西就沒有太在意。之后讀到很多Multi-Agent或者並行訓練的文章,都會提到這個算法,比如第一視角多人游戲(Quake ...

Wed Mar 13 04:06:00 CST 2019 0 1800
ICLR 2018 | Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training

為了降低大規模分布式訓練時的通信開銷,作者提出了一種名為深度梯度壓縮(Deep Gradient Compression, DGC)的方法。DGC通過稀疏化技術,在每次迭代時只選擇發送一部分比較“重要”的梯度元素,以達到降低整個訓練過程通信量的目的。為了保證使用DGC后模型的精度,作者還使用了幾種 ...

Mon May 25 02:33:00 CST 2020 0 1221
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM