Boosting算法的前世今生(中篇)


微信公眾號:AIKaggle
歡迎建議和拍磚,若需要資源,請公眾號留言;
如果你覺得AIKaggle對你有幫助,歡迎贊賞

本系列文章將會梳理Boosting算法的發展,從Boosting算法入手,介紹Adaboost,GBDT/GBRT算法,XGBoost算法,LightGBM算法,CATBoost算法,Thunder GBM算法等,介紹Boosting算法族的原理,框架,推導等,Boosting算法的前世今生(上篇)將介紹AdaBoost算法和梯度提升樹算法,中篇(本文)將會詳細介紹陳天奇教主提出的XGBoost算法,下篇將會介紹LightGBM算法,CATBoost算法,Thunder GBM算法等。XGBoost是在2014年由華盛頓大學的陳天奇(教主)提出的,對損失函數進行了二階泰勒展開,在優化時用到了一階導數和二階導數,而且采用結構損失最小化的原則,在損失函數中引入了關於樹模型復雜度的函數。如果對機器學習算法和實戰案例感興趣,也可關注公眾號:AIKaggle獲取算法動態

一個Snapshot

  • XGBoost是GDBT的一個變種,最大的區別是XGBoost通過對目標函數做二階泰勒展開,從而求出下一步要擬合的樹的葉子結點權重(需要先確定樹的結構),從而根據損失函數求出每一次分裂結點的損失減小的大小,從而根據分裂損失選擇合適的屬性進行分裂。
  • 這個利用二階展開得到的損失函數公式與分裂結點的過程是息息相關的。先遍歷所有結點的所有屬性進行分裂,假設選擇了這個\(a\)屬性的一個取值作為分裂結點,根據泰勒展開求得的公式可計算該樹結構各個葉子結點的權重,從而計算損失減小的程度,從而綜合各個屬性選擇使得損失減小最大的那個特征作為當前結點的分裂屬性。依此類推,直到滿足終止條件。

目標函數分析

初步認識目標函數

  • 目標函數:

\[Obj^{(t)} = \sum_{i=1}^{n} l(y_i, \hat y_i^{(t-1)}+f_t(x_i))+\Omega(f_t)+constant \]

其中,\(Obj\)代表第\(t\)步迭代的目標函數,\(\Omega(f_t)\)為正則項,包括\(L_1\)正則項,\(L_2\)正則項,\(constant\)為常數項。

用泰勒展開來近似我們原來的目標:

  • 泰勒展開:$$f(x+\Delta x)\simeq f(x)+f'(x)\Delta x + \frac{1}{2} f''(x)\Delta x^2$$

  • 定義:

\[g_i = \partial_{\hat y^{(t-1)}}l(y_i, \hat y^{(t-1)}) \]

\[h_i = \partial^2_{\hat y^{(t-1)}}l(y_i, \hat y^{(t-1)}) \]

  • 那么目標函數可以寫為(公式1):

\[Obj^{(t)} \simeq \sum_{i=1}^{n}[l(y_i, \hat y_i^{(t-1)})+g_if_t(x_i)+\frac{1}{2}h_if^2_t(x_i)]+\Omega(f_t)+constant \]

  • 利用泰勒展開目標函數后,可以清晰地看到,最終的目標函數只依賴於每個數據點在誤差函數上的一階導數和二階導數。暫且把這個目標函數放在這里,我們接下來短暫地研究一下樹結構,以便弄清楚正則項\(\Omega(f_t)\)的表達式。

  • \(x = (x_1, x_2, ..., x_n)\in X\subset R^n\)為數據點,\(f\)為樹結構的映射,它將數據點映射為一個數:

\[f: X \rightarrow R \]

樹的復雜度

  • 接下來定義樹的復雜度。

  • 對於\(f\)的定義做一下細化,把樹拆分成結構部分\(q\)和葉子權重部分\(w\)。下圖是一個具體的例子,我會從下圖開始,詳細講講如何將映射\(f\)轉化為一個由\(w\)\(q\)表示的映射。結構函數\(q\)把輸入\(x\)映射到葉子的索引號上,而\(w\)給定了索引號對應的葉子結點的葉子分數。

  • 舉例說明一下,藍色衣服的小男孩記為樣本點\(x_1\),由於\(q\)是將數據點映射為葉子索引點號的函數,所以\(q(x_1)\)為1(對應着Leaf 1),\(w\)將索引號映射為索引號對應的葉子結點分數,所以\(w(1) = +2\),將這兩步復合起來就是\(w(q(x)) = w(1) = 2\)

  • 定義這個復雜度還包含了一棵樹里面結點的個數,以及每個葉子結點上面輸出分數的\(L_2\)模平方。當然這不是唯一的一種定義方式,不過這一定義方式學習出的樹效果一般都比較不錯。下圖還給出了復雜度計算的一個例子。

  • 說明一下上圖,這棵樹包含3個葉子結點,所以復雜度\(\Omega(f_t)\)的第一項\(\gamma T = 3\gamma\),第二項\(\frac{1}{2}\lambda\sum_{j=1}^{T}w_j^2 = \frac{1}{2} \lambda \times((+2)^2+(0.1)^2+(-1)^2) = \frac{1}{2}\lambda \times(4+0.01+1)\)

  • 將弄清楚的正則項代入到之前的公式1中,我們可以改寫目標函數,以便目標函數和樹結構的聯系更為緊密。

改寫目標函數

  • 忽略常數項,目標函數可以改寫為:

\[Obj^{(t)}\simeq \sum_{i=1}^{n}[g_if_t(x_i)+\frac12h_if_t^2(x_i)]+\Omega(f_t) \]

  • 再將映射\(f\)\(w\)\(q\)表示:

\[Obj^{(t)}= \sum_{i=1}^{n}[g_iw_{q(x_i)}+\frac12h_iw_{q(x_i)}^2]+\gamma T+\frac12\lambda\sum_{j=1}^{T}w_j^2 \]

  • 引入每個葉子上面的樣本點集合\(I\),比如上圖的Leaf 3包含3個樣本點,分別是穿圍裙的媽媽,爺爺和奶奶,所以\(I_3\)就是包含3個樣本點{穿圍裙的媽媽,爺爺和奶奶}的集合。將樣本點的求和指標換成葉子結點的求和指標:(此處也許需要較長時間理解,看不懂可以先跳過)

\[Obj^{(t)}= \sum_{j=1}^{T}[(\sum_{i\in I_j}g_i)w_j+\frac12(\sum_{i\in I_j}h_i+\lambda)w_j^2]+\gamma T \]

  • 寫成這一形式后,目標包含了\(T\)個相互獨立的單變量二次函數,我們可以定義

\[G_j = \sum_{i \in I_j}g_i, H_j = \sum_{i \in I_j} h_i \]

  • (類似於梯度和Hessian),最終公式可以化簡為

\[Obj^{(t)} = \sum_{j=1}^{T} [(\sum_{i\in I_j}g_i)w_j+\frac12(\sum_{i\in I_j}h_i+\lambda)w_j^2]+\gamma T \]

\[Obj^{(t)} = \sum_{j=1}^{T} [G_jw_j+\frac12(H_j+\lambda)w_j^2]+\gamma T \]

最(極)值求解

  • 為了求解目標函數的最值(極值),也就是對目標函數進行最小化(極小值),那么我們需要對目標函數關於\(w_j\)進行求導(導數為零是目標函數取極值的必要條件,如果目標函數是凸函數,那么導數為零是目標函數取極值的充要條件,比較邊界情況可以確定出最值),可以得到:

\[w_j^* = -\frac{G_j}{H_j+\lambda} \]

  • 然后把\(w_j\)最優解代入得到:

\[Obj = -\frac12 \sum_{j=1}^{T}\frac{G_j^2}{H_j+\lambda}+\gamma T \]

收縮學習率和列采樣

  • XGBoost除了使用正則項防止過擬合外,還使用了收縮和列抽樣。收縮再次添加權重因子\(\eta\)到每一步樹boosting的過程中,這個過程和隨機優化中的學習速率相似,收縮減少每棵單獨樹的影響並且為將形成的樹預留了空間(提高了模型的效果)。特征(列)抽樣(在隨機森林中使用)(相對於遍歷每個特征,獲取所有可能的Gain消耗大)找到近似最優的分割點,列抽樣防止過擬合,並且可以加速並行化。

打分函數計算示例

  • \(Obj\)代表了當我們指定一個樹的結構的時候,我們在目標上面最多減少多少,我們可以把它叫做結構分數(Structure Score)。

  • 下圖描述了結構分數的計算方法:

  • 計算好結構分數之后,我們就可以去構造XGBoost算法中的單棵樹了,接下來只需要說清楚我們是怎么分裂結點生成單棵樹的,這是通過貪心法實現的。

枚舉不同樹結構的貪心法

貪心法

  • 每一次嘗試去對已有的葉子加入一個分割:

  • 對於每次擴展,我們還是要枚舉所有可能的分割方案,如何高效地枚舉所有的分割呢?我假設我們要枚舉所有\(x<a\)這樣的條件,對於某一個特定的分割\(a\),我們要計算\(a\)左邊的導數和右邊的導數和。

  • 在構造樹結構時,每一次嘗試對已有的葉子結點加入一個分割,選擇具有最佳增益的分割對結點進行分裂。對於一個具體的分割方案,我們可以獲得的增益可以由如下公式計算:

\[Gain = Obj(I) - [Obj(I_L)+Obj(I_R)] \]

\[Gain = \frac12[\frac{(\sum_{i\in I_L}g_i)^2}{\sum_{i \in I_L} h_i+\lambda}+\frac{(\sum_{i\in I_R}g_i)^2}{\sum_{i \in I_R} h_i+\lambda} - \frac{(\sum_{i\in I}g_i)^2}{\sum_{i \in I} h_i+\lambda}]-\gamma \]

\[Gain = \frac12[\frac{G_L}{H_L+\lambda}+\frac{G_R}{H_R+\lambda} - \frac{G}{H+\lambda}]-\gamma \]

  • 其中\(I\)代表該結點下的所有樣本集合(分割前),設\(I_L\)代表左子樹,\(I_R\)代表右子樹,也就有\(I = I_L \cup I_R\)

  • 我們可以發現對於所有的\(a\),我們只要做一遍從左到右的掃描就可以枚舉出所有分割的梯度和\(G_L\)\(G_R\)。然后用上面的公式計算每個分割方案的分數就可以了。

  • 觀察這個目標函數,大家會發現第二個值得注意的事情就是引入分割不一定會使得情況變好,因為我們有一個引入新葉子的懲罰項。優化這個目標對應了樹的剪枝, 當引入的分割帶來的增益小於一個閥值的時候,我們可以剪掉這個分割。大家可以發現,當我們正式地推導目標的時候,像計算分數和剪枝這樣的策略都會自然地出現,而不再是一種因為heuristic(啟發式)而進行的操作了。

端到端的模型評估

XGBoost的實現

  • XGBoost主要提供權重分類、排序目標函數,支持python、R、Julia,集成到了本地的數據管道如sklean。在分布式系統中,XGboost也支持Hadoop、MPI、Flink、spark

數據集

分類

排序

Out-of-core

分布式


點擊閱讀教主原文


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM