Adam算法及相关Adaptive Learning Rate 自适应学习率


目录

  • 前言
  • 1.adagrad
  • 2.动量(Momentum)
  • 3.RMSProp
  • 4.Adam
  • 附1 基于梯度的优化算法前后关系

  • 附二 Gradient Descent补充

 

前言:

https://www.zhihu.com/question/323747423/answer/790457991

Adam本质上实际是RMSProp+动量。但如果你对随机梯度下降SGD的知识,以及Adam之前的几个更新方法一无所知。那么当你看到一个“复杂的”Adam看了就头大(请不要嘲笑初学者,当年我也觉得深度学习各个地方都超复杂)。

现在假设你对反向传播的计算梯度的内容比较了解,一旦能使用反向传播计算解析梯度,梯度就能被用来进行参数更新了

 

 

 

 

 

 

1.adagrad

 

 

 

 

 

 

 

 

2.动量(Momentum)

 

 

 

 

  

 

 

 

 

3.RMSProp

  

 

 4.Adam

 

 

 

 

附1 基于梯度的优化算法前后关系


 

附二 Gradient Descent补充

https://www.jianshu.com/p/8b7105a2c242

 

 

 

 

 

 

 

 

 


免责声明!

本站转载的文章为个人学习借鉴使用,本站对版权不负任何法律责任。如果侵犯了您的隐私权益,请联系本站邮箱yoyou2525@163.com删除。



 
粤ICP备18138465号  © 2018-2025 CODEPRJ.COM