原文:Understanding the difficulty of training deep feedforward neural networks

本文作者為:Xavier Glorot與Yoshua Bengio。 本文干了點什么呢 第一步:探索了不同的激活函數對網絡的影響 包括:sigmoid函數,雙曲正切函數和softsign y x x 函數 。 文中通過不斷的實驗: ,來monitor網絡中隱藏單元的激活值來觀察它的飽和性 . 梯度。 並且evaluate 所選擇的激活函數與初始化方法 預訓練被看作一種特殊的初始化方法 。 實驗數據 ...

2017-02-17 22:14 1 4447 推薦指數:

查看詳情

《Population Based Training of Neural Networks》論文解讀

  很早之前看到這篇文章的時候,覺得這篇文章的思想很朴素,沒有讓人眼前一亮的東西就沒有太在意。之后讀到很多Multi-Agent或者並行訓練的文章,都會提到這個算法,比如第一視角多人游戲(Quake ...

Wed Mar 13 04:06:00 CST 2019 0 1800
ReLU——Deep Sparse Rectifier Neural Networks

1. 摘要 ReLU 相比 Tanh 能產生相同或者更好的性能,而且能產生真零的稀疏表示,非常適合自然就稀疏的數據。 采用 ReLU 后,在大量的有標簽數據下,有沒有無監督預訓練模 ...

Sat Apr 20 00:39:00 CST 2019 0 479
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM