梯度下降算法詳解
介紹
如果說在機器學習領域有哪個優化算法最廣為認知,用途最廣,非梯度下降算法莫屬。梯度下降算法是一種非常經典的求極小值的算法,比如在線性回歸里我們可以用最小二乘法去解析最優解,但是其中會涉及到對矩陣求逆,由於多重共線性問題的存在是很讓人難受的,無論進行L1正則化的Lasso回歸還是L2正則化的嶺回歸,其實並不讓人滿意,因為它們的產生是為了修復此漏洞,而不是為了提升模型效果,甚至使模型效果下降。但是換一種思路,比如用梯度下降算法去優化線性回歸的損失函數,完全就可以不用考慮多重共線性帶來的問題。其實不僅是線性回歸,邏輯回歸同樣是可以用梯度下降進行優化,因為這兩個算法的損失函數都是嚴格意義上的凸函數,即存在全局唯一極小值,較小的學習率和足夠的迭代次數,一定可以達到最小值附近,滿足精度要求是完全沒有問題的。並且隨着特征數目的增多(列如100000),梯度下降的效率將遠高於去解析標准方程的逆矩陣。神經網絡中的后向傳播算法其實就是在進行梯度下降,GDBT(梯度提升樹)每增加一個弱學習器(CART回歸樹),近似於進行一次梯度下降,因為每一棵回歸樹的目的都是去擬合此時損失函數的負梯度,這也可以說明為什么GDBT往往沒XGBoost的效率高,因為它沒辦法擬合真正的負梯度,而Xgboost 的每增加的一個弱學習器是使得損失函數下降最快的解析解。總之梯度下降算法的用處十分廣泛,我們有必要對它進行更加深入的理解。
關於梯度下降算法的直觀理解
關於梯度下降算法的直觀理解,我們以一個人下山為例。比如剛開始的初始位置是在紅色的山頂位置,那么現在的問題是該如何達到藍色的山底呢?按照梯度下降算法的思想,它將按如下操作達到最低點:
第一步,明確自己現在所處的位置
第二步,找到相對於該位置而言下降最快的方向
第三步, 沿着第二步找到的方向走一小步,到達一個新的位置,此時的位置肯定比原來低
第四部, 回到第一步
第五步,終止於最低點
按照以上5步,最終達到最低點,這就是梯度下降的完整流程。當然你可能會說,上圖不是有不同的路徑嗎?是的,因為上圖並不是標准的凸函數,往往不能找到最小值,只能找到局部極小值。所以你可以用不同的初始位置進行梯度下降,來尋找更小的極小值點,當然如果損失函數是凸函數就沒必要了,開開心心的進行梯度下降吧!比如下面這種:
問題是,如何用數學語言去描述以上5步呢?
梯度下降算法的理論推導
一元函數
一元函數的導數我相信大家都學過,其幾何意義是某點切線的斜率,除此之外它還能表示函數在該點的變化率,導數越大,說明函數在該點的變化越大。
則導函數本身則代表着函數沿着x方向的變化率
二元函數
對於二元函數,z=f(x,y),它對x和y的偏導數分別表示如下:
函數在y方向不變的情況下,函數值沿x方向的變化率
函數在x方向不變的情況下,函數值沿y方向的變化率
有了以上的了解,我們分別知道了函數在單獨在x和y方向上的變化率
現在有一個問題,我想知道函數在其他方向上的變化率怎么辦?
比如下圖中的u方向上:
其實是可以做到的,我們都學過,在一平面中,任意一向量都可以用兩個不共線的基向量表示,也就是說任意一方向上的變化,都可以分解到x和y兩個方向上。
比如,我想求u方向上的變化率,根據導函數的定義
若:
其中α是u方向與x正方向的夾角
極限存在,可用洛必達法則,分子分母同時對\(\Delta u\)求導
原式等於:
令:
這是一個自變量是α的函數,我們將其命名為方向導數,其表明隨着α的不同,方向不同,函數的變化率不同。
至此,我們推出了,方向導數的概念,還記得我們的梯度下降算法的第二步是什么嗎?
”找到相對於該位置而言下降最快的方向“
而我們的方向導數,本身代表的就是函數變化率與方向的關系,也就是說我們需要利用方向導數,找到使得函數變化率最大的方向
那么,問題來了,在哪一個方向上變化率最大呢?
尋找函數變化率最大的方向-梯度
我們可以這樣改寫,令:
則:
θ是兩個向量的夾角
顯然,當θ=0時,取得最大方向導數,也就說隨着α的改變,當兩個向量A和I是平行的時候,取得最大方向導數,而此時I的方向就是下式的方向:
我們把上式稱之為梯度,所以梯度方向是函數變化率最大的方向,更本質的說是函數增長最快的方向
所以,當我們需要最小化損失函數時,只需要使損失函數沿着負梯度前行,就能使損失函數最快下降。
更高元函數
二元函數的推導結論同樣可作用於更高元的函數。
所以,高元函數在某點的梯度就是對每一個自變量求偏導,組成的一個向量,在該點的取值,該向量的方向就是函數在該點處增長最快的方向,顯然,其負方向就是函數減少最快的方向
以下面的函數舉個例子,這是一個有n+1個自變量的函數,自變量是θ:
首先呢,隨機化一個我們梯度下降的初始位置,全部為0吧,當然在神經網絡中可不能如此隨意:
計算梯度,對每一個自變量求偏導:
將初始化的值0,代入上式梯度,就可以得到一個具體的向量,為什么是一個具體的向量呢?這個你要自己想想了
而該向量的方向就是函數在該點增長最快的方向
那么,顯然,我們需要往其負方向走一段距離,可是,如何往負方向走呢?其實一樣的道理,該負方向同樣將其分解到各個自變量的維度上,即其更新過程可寫成:
式中的減號表示往梯度的負方向改變
а為學習率,是一個大於0的數,它能控制沿着該方向走多長一段距離,不是步長
什么才是真正的步長?
一個式子說明足以,將當前位置θ代入下式,就是在該點處梯度下降的步長:
所以步長是一個有方向和模長的矢量,當然也是符合我們直觀上的理解的,你總要確定往哪個方向走以及步子邁多大。
應用:線性回歸的梯度下降解法
首先,我們給出線性回歸的損失函數,為了方便,不帶正則項:
其中:
其更新過程可寫成:
具體的梯度下降流程:
第一步:先隨便假設一組θ,你要是喜歡可以全部取0
第二步循環迭代:
第一次迭代:
第二次迭代:
第x次迭代:......
第三步,滿足要求,循環結束,得到θ
參考資料:
- 為什么梯度反方向是函數值局部下降最快的方向?https://zhuanlan.zhihu.com/p/24913912
- 梯度下降(Gradient Descent)小結-劉建平 https://www.cnblogs.com/pinard/p/5970503.html