原文:ICLR 2018 | Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training

为了降低大规模分布式训练时的通信开销,作者提出了一种名为深度梯度压缩 Deep Gradient Compression, DGC 的方法。DGC通过稀疏化技术,在每次迭代时只选择发送一部分比较 重要 的梯度元素,以达到降低整个训练过程通信量的目的。为了保证使用DGC后模型的精度,作者还使用了几种花里胡哨的技术,包括动量修正 momentum correction 本地梯度裁剪 local gra ...

2020-05-24 18:33 0 1221 推荐指数:

查看详情

DEEP COMPRESSION小记

2016ICLR最佳论文 Deep Compression: Compression Deep Neural Networks With Pruning, Trained Quantization And Huffman Codin 主要针对神经网络模型巨大,在嵌入式机器中比较难运行的问题 ...

Tue Apr 11 00:31:00 CST 2017 1 1555
2017-ICLR End-To-End Optimized Image Compression论文笔记

摘要 我们描述了一种图像压缩方法,包括非线性分析变换,均匀量化器和非线性合成变换。变换是在卷积线性滤波器和非线性激活函数的三个连续阶段中构建的。与大多数卷积神经网络不同,选择联合非线性来实现局部增益 ...

Tue Dec 25 06:17:00 CST 2018 0 1084
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM