原文:Understanding the difficulty of training deep feedforward neural networks

本文作者为:Xavier Glorot与Yoshua Bengio。 本文干了点什么呢 第一步:探索了不同的激活函数对网络的影响 包括:sigmoid函数,双曲正切函数和softsign y x x 函数 。 文中通过不断的实验: ,来monitor网络中隐藏单元的激活值来观察它的饱和性 . 梯度。 并且evaluate 所选择的激活函数与初始化方法 预训练被看作一种特殊的初始化方法 。 实验数据 ...

2017-02-17 22:14 1 4447 推荐指数:

查看详情

《Population Based Training of Neural Networks》论文解读

  很早之前看到这篇文章的时候,觉得这篇文章的思想很朴素,没有让人眼前一亮的东西就没有太在意。之后读到很多Multi-Agent或者并行训练的文章,都会提到这个算法,比如第一视角多人游戏(Quake ...

Wed Mar 13 04:06:00 CST 2019 0 1800
ReLU——Deep Sparse Rectifier Neural Networks

1. 摘要 ReLU 相比 Tanh 能产生相同或者更好的性能,而且能产生真零的稀疏表示,非常适合自然就稀疏的数据。 采用 ReLU 后,在大量的有标签数据下,有没有无监督预训练模 ...

Sat Apr 20 00:39:00 CST 2019 0 479
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM