原文:深度学习面试题35:RNN梯度消失问题(vanishing gradient)

目录 梯度消失原因之一:激活函数 梯度消失原因之二:初始化权重 不同损失函数下RNN的梯度消失程度对比 实践中遇到梯度消失怎么办 参考资料 在实践过程中,RNN的一个缺点是在训练的过程中容易梯度消失。 梯度消失原因之一:激活函数 sigmod的导函数峰值为 . ,由于反向传播的距离越长,连乘的小数越多,所以sigmod一定会产生梯度消失,并且很严重。但是因为tanh的导函数峰值为 ,所以tanh造 ...

2020-07-11 19:49 0 731 推荐指数:

查看详情

梯度消失vanishing gradient)与梯度爆炸(exploding gradient问题

(1)梯度不稳定问题: 什么是梯度不稳定问题深度神经网络中的梯度不稳定性,前面层中的梯度或会消失,或会爆炸。 原因:前面层上的梯度是来自于后面层上梯度的乘乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景,如梯度消失梯度爆炸。 (2)梯度消失vanishing ...

Fri Oct 20 23:16:00 CST 2017 0 2998
深度学习面试题08:梯度消失梯度爆炸

目录   梯度消失   梯度爆炸   参考资料 以下图的全连接神经网络为例,来演示梯度爆炸和梯度消失梯度消失 在模型参数w都是(-1,1)之间的数的前提下,如果激活函数选择的是sigmod(x),那么他的导函数σ’(x ...

Tue Jul 09 04:37:00 CST 2019 0 605
深度学习面试题33:RNN梯度更新(BPTT)

目录   定义网络   梯度反向传播   梯度更新   面试时的变相问法   参考资料 BPTT(back-propagation through time)算法是常用的训练RNN的方法,其实本质还是BP算法,只不过RNN处理时间序列数据,所以要基于时间反向传播,故叫随时间反向传播 ...

Fri Jul 10 05:41:00 CST 2020 1 990
深度学习面试题38:LSTM如何解决梯度消失问题

目录   回顾简单RNN梯度消失问题   LSTM如何解决梯度消失   遗忘门对梯度消失的影响   遗忘门的初始化技巧   参考资料 回顾简单RNN梯度消失问题 在简单RNN的前向传播过程中,输入的数据循环地与隐藏层里的权重 ...

Thu Jul 16 08:22:00 CST 2020 0 1210
深度学习面试题02:标准梯度下降法

目录   一元函数的梯度下降法   多元函数的梯度下降法   参考资料 梯度下降是一种迭代式的最优化手段,在机器学习中一般用于求目标函数的极小值点,这个极小值点就是最优的模型内部参数。相比求解析解的手段,GD的通用性更强,所以受到广泛的使用。 一元函数 ...

Tue Jul 02 18:08:00 CST 2019 0 558
 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM