動量法的結論:
1.動量方法主要是為了解決Hessian矩陣病態條件問題(直觀上講就是梯度高度敏感於參數空間的某些方向)的。
2.加速學習
3.一般將參數設為0.5,0.9,或者0.99,分別表示最大速度2倍,10倍,100倍於SGD的算法。
4.通過速度v,來積累了之間梯度指數級衰減的平均,並且繼續沿該方向移動。
算法基本流程:
動量方法直白解釋:
如圖所示,紅色為SGD+Momentum。黑色為SGD。可以看到黑色為典型Hessian矩陣病態的情況,相當於大幅度的徘徊着向最低點前進。
而由於動量積攢了歷史的梯度,如點P前一刻的梯度與當前的梯度方向幾乎相反。因此原本在P點原本要大幅徘徊的梯度,主要受到前一時刻的影響,而導致在當前時刻的梯度幅度減小。
直觀上講就是,要是當前時刻的梯度與歷史時刻梯度方向相似,這種趨勢在當前時刻則會加強;要是不同,則當前時刻的梯度方向減弱。
要是當前時刻的梯度與歷史時刻梯度方向相似,這種趨勢在當前時刻則會加強;要是不同,則當前時刻的梯度方向減弱。
假設每個時刻的梯度g總是類似,那么由我們可以直觀的看到每次的步長為:
即當設為0.5,0.9,或者0.99,分別表示最大速度2倍,10倍,100倍於SGD的算法。