文章轉載自microstrong的深入理解XGBoost
1. XGBoost簡介
XGBoost的全稱是eXtreme Gradient Boosting,它是經過優化的分布式梯度提升庫,旨在高效、靈活且可移植。XGBoost是大規模並行boosting tree的工具,它是目前最快最好的開源 boosting tree工具包,比常見的工具包快10倍以上。在數據科學方面,有大量的Kaggle選手選用XGBoost進行數據挖掘比賽,是各大數據科學比賽的必殺武器;在工業界大規模數據方面,XGBoost的分布式版本有廣泛的可移植性,支持在Kubernetes、Hadoop、SGE、MPI、 Dask等各個分布式環境上運行,使得它可以很好地解決工業界大規模數據的問題。本文將從XGBoost的數學原理和工程實現上進行介紹,然后介紹XGBoost的優缺點,並在最后給出面試中經常遇到的關於XGBoost的問題。
2. XGBoost的原理推導
2.1 從目標函數開始,生成一棵樹
XGBoost和GBDT兩者都是boosting方法,除了工程實現、解決問題上的一些差異外,最大的不同就是目標函數的定義。因此,本文我們從目標函數開始探究XGBoost的基本原理。
2.1.1 學習第 棵樹
XGBoost是由 個基模型組成的一個加法模型,假設我們第
次迭代要訓練的樹模型是
,則有:
2.1.2 XGBoost的目標函數
損失函數可由預測值 與真實值
進行表示:
其中, 為樣本的數量。
我們知道模型的預測精度由模型的偏差和方差共同決定,損失函數代表了模型的偏差,想要方差小則需要在目標函數中添加正則項,用於防止過擬合。所以目標函數由模型的損失函數 與抑制模型復雜度的正則項
組成,目標函數的定義如下:
其中, 是將全部
棵樹的復雜度進行求和,添加到目標函數中作為正則化項,用於防止模型過度擬合。
由於XGBoost是boosting族中的算法,所以遵從前向分步加法,以第 步的模型為例,模型對第
個樣本
的預測值為:
其中, 是由第
步的模型給出的預測值,是已知常數,
是這次需要加入的新模型的預測值。此時,目標函數就可以寫成:
注意上式中,只有一個變量,那就是第 棵樹
,其余都是已知量或可通過已知量可以計算出來的。細心的同學可能會問,上式中的第二行到第三行是如何得到的呢?這里我們將正則化項進行拆分,由於前
棵樹的結構已經確定,因此前
棵樹的復雜度之和可以用一個常量表示,如下所示:
2.1.3 泰勒公式展開
泰勒公式是將一個在 處具有
階導數的函數
利用關於
的
次多項式來逼近函數的方法。若函數
在包含
的某個閉區間
上具有
階導數,且在開區間
上具有
階導數,則對閉區間
上任意一點
有:
其中的多項式稱為函數在 處的泰勒展開式,
是泰勒公式的余項且是
的高階無窮小。
根據泰勒公式,把函數 在點
處進行泰勒的二階展開,可得如下等式:
回到XGBoost的目標函數上來, 對應損失函數
,
對應前
棵樹的預測值
,
對應於我們正在訓練的第
棵樹
,則可以將損失函數寫為:
其中, 為損失函數的一階導,
為損失函數的二階導,注意這里的求導是對
求導。
我們以平方損失函數為例:
則:
將上述的二階展開式,帶入到XGBoost的目標函數中,可以得到目標函數的近似值:
由於在第 步時
其實是一個已知的值,所以
是一個常數,其對函數的優化不會產生影響。因此,去掉全部的常數項,得到目標函數為:
所以我們只需要求出每一步損失函數的一階導和二階導的值(由於前一步的 是已知的,所以這兩個值就是常數),然后最優化目標函數,就可以得到每一步的
,最后根據加法模型得到一個整體模型。
2.1.4 定義一棵樹
我們知道XGBoost的基模型不僅支持決策樹,還支持線性模型,本文我們主要介紹基於決策樹的目標函數。我們可以重新定義一棵決策樹,其包括兩個部分:
- 葉子結點的權重向量
;
- 實例(樣本)到葉子結點的映射關系
(本質是樹的分支結構);
2.1.5 定義樹的復雜度
決策樹的復雜度 可由葉子數
組成,葉子節點越少模型越簡單,此外葉子節點也不應該含有過高的權重
(類比 LR 的每個變量的權重),所以目標函數的正則項由生成的所有決策樹的葉子節點數量,和所有節點權重所組成的向量的
范式共同決定。
2.1.6 葉子結點歸組
我們將屬於第 個葉子結點的所有樣本
划入到一個葉子結點的樣本集合中,數學表示為:
,那么XGBoost的目標函數可以寫成:
上式中的第二行到第三行可能看的不是特別明白,這里做些解釋:第二行是遍歷所有的樣本后求每個樣本的損失函數,但樣本最終會落在葉子節點上,所以我們也可以遍歷葉子節點,然后獲取葉子節點上的樣本集合,最后再求損失函數。即我們之前是單個樣本,現在都改寫成葉子結點的集合,由於一個葉子結點有多個樣本存在,因此才有了 和
這兩項,
為第
個葉子節點取值。
為簡化表達式,我們定義 ,
,含義如下:
:葉子結點
所包含樣本的
一階偏導數
累加之和,是一個常量;:葉子結點
所包含樣本的
二階偏導數
累加之和,是一個常量;
將 和
帶入XGBoost的目標函數,則最終的目標函數為:
這里我們要注意 和
是前
步得到的結果,其值已知可視為常數,只有最后一棵樹的葉子節點
不確定。
2.1.7 樹結構打分
回憶一下初中數學知識,假設有一個一元二次函數,形式如下:
我們可以套用一元二次函數的最值公式輕易地求出最值點:
那么回到XGBoost的最終目標函數上 ,該如何求出它的最值呢?
我們先簡單分析一下上面的式子:
- 對於每個葉子結點
,可以將其從目標函數中拆解出來:
在2.1.5中我們提到, 和
相對於第
棵樹來說是可以計算出來的。那么,這個式子就是一個只包含一個變量葉子結點權重
的一元二次函數,我們可以通過最值公式求出它的最值點。
- 再次分析一下目標函數
,可以發現,各個葉子結點的目標子式是相互獨立的,也就是說,當每個葉子結點的子式都達到最值點時,整個目標函數
才達到最值點。
那么,假設目前樹的結構已經固定,套用一元二次函數的最值公式,將目標函數對 求一階導,並令其等於
,則可以求得葉子結點
對應的權值:
所以目標函數可以化簡為:
上圖給出目標函數計算的例子,求每個節點每個樣本的一階導數 和二階導數
,然后針對每個節點對所含樣本求和得到
和
,最后遍歷決策樹的節點即可得到目標函數。
2.2 一棵樹的生成細節
2.2.1 最優切分點划分算法
在實際訓練過程中,當建立第 棵樹時,一個非常關鍵的問題是如何找到葉子節點的最優切分點,XGBoost支持兩種分裂節點的方法——貪心算法和近似算法。
(1)貪心算法
從樹的深度為0開始:
- 對每個葉節點枚舉所有的可用特征;
- 針對每個特征,把屬於該節點的訓練樣本根據該特征值進行升序排列,通過線性掃描的方式來決定該特征的最佳分裂點,並記錄該特征的分裂收益;
- 選擇收益最大的特征作為分裂特征,用該特征的最佳分裂點作為分裂位置,在該節點上分裂出左右兩個新的葉節點,並為每個新節點關聯對應的樣本集;
- 回到第1步,遞歸執行直到滿足特定條件為止;
那么如何計算每個特征的分裂收益呢?
假設我們在某一節點完成特征分裂,則分裂前的目標函數可以寫為:
分裂后的目標函數為:
則對於目標函數來說,分裂后的收益為:
注意:該特征收益也可作為特征重要性輸出的重要依據。
對於每次分裂,我們都需要枚舉所有特征可能的分割方案,如何高效地枚舉所有的分割呢?
假設我們要枚舉某個特征所有 這樣條件的樣本,對於某個特定的分割點
我們要計算
左邊和右邊的導數和。
我們可以發現對於所有的分裂點 ,只要做一遍從左到右的掃描就可以枚舉出所有分割的梯度和
、
。然后用上面的公式計算每個分割方案的收益就可以了。
觀察分裂后的收益,我們會發現節點划分不一定會使得結果變好,因為我們有一個引入新葉子的懲罰項,也就是說引入的分割帶來的增益如果小於一個閥值的時候,我們可以剪掉這個分割。
(2)近似算法
貪心算法可以得到最優解,但當數據量太大時則無法讀入內存進行計算,近似算法主要針對貪心算法這一缺點給出了近似最優解。
對於每個特征,只考察分位點可以減少計算復雜度。
該算法首先根據特征分布的分位數提出候選划分點,然后將連續型特征映射到由這些候選點划分的桶中,然后聚合統計信息找到所有區間的最佳分裂點。
在提出候選切分點時有兩種策略:
- Global:學習每棵樹前就提出候選切分點,並在每次分裂時都采用這種分割;
- Local:每次分裂前將重新提出候選切分點。
直觀上來看,Local策略需要更多的計算步驟,而Global策略因為節點已有划分所以需要更多的候選點。
下圖給出不同種分裂策略的AUC變化曲線,橫坐標為迭代次數,縱坐標為測試集AUC,eps為近似算法的精度,其倒數為桶的數量。
從上圖我們可以看到, Global 策略在候選點數多時(eps 小)可以和 Local 策略在候選點少時(eps 大)具有相似的精度。此外我們還發現,在eps取值合理的情況下,分位數策略可以獲得與貪心算法相同的精度。
近似算法簡單來說,就是根據特征 的分布來確定
個候選切分點
,然后根據這些候選切分點把相應的樣本放入對應的桶中,對每個桶的
進行累加。最后在候選切分點集合上貪心查找。該算法描述如下:
算法講解:
- 第一個for循環:對特征k根據該特征分布的分位數找到切割點的候選集合
。這樣做的目的是提取出部分的切分點不用遍歷所有的切分點。其中獲取某個特征k的候選切割點的方式叫
proposal
(策略)。XGBoost 支持 Global 策略和 Local 策略。 - 第二個for循環:將每個特征的取值映射到由該特征對應的候選點集划分的分桶區間,即
。對每個桶區間內的樣本統計值 G,H並進行累加,最后在這些累計的統計量上尋找最佳分裂點。這樣做的目的是獲取每個特征的候選分割點的 G,H值。
下圖給出近似算法的具體例子,以三分位為例:
根據樣本特征進行排序,然后基於分位數進行划分,並統計三個桶內的 G,H 值,最終求解節點划分的增益。
2.2.2 加權分位數縮略圖
實際上,XGBoost不是簡單地按照樣本個數進行分位,而是以二階導數值 作為樣本的權重進行划分。為了處理帶權重的候選切分點的選取,作者提出了Weighted Quantile Sketch算法。加權分位數略圖算法提出了一種數據結構,這種數據結構支持merge和prune操作。作者在論文中給出了該算法的詳細描述和證明鏈接,現在鏈接已經失效,但是在arXiv的最新版XGBoost論文中APPENDIX部分有該算法詳細的描述,地址:https://arxiv.org/abs/1603.02754 。現在我們簡單介紹加權分位數略圖侯選點的選取方式,如下:
那么為什么要用二階梯度 進行樣本加權?
我們知道模型的目標函數為:
我們把目標函數配方整理成以下形式,便可以看出 有對 loss 加權的作用。
其中,加入 是因為
和
是上一輪的損失函數求導與
皆為常數。我們可以看到
就是平方損失函數中樣本的權重。
2.2.3 稀疏感知算法
實際工程中一般會出現輸入值稀疏的情況。比如數據的缺失、one-hot編碼都會造成輸入數據稀疏。XGBoost在構建樹的節點過程中只考慮非缺失值的數據遍歷,而為每個節點增加了一個缺省方向,當樣本相應的特征值缺失時,可以被歸類到缺省方向上,最優的缺省方向可以從數據中學到。至於如何學到缺省值的分支,其實很簡單,分別枚舉特征缺省的樣本歸為左右分支后的增益,選擇增益最大的枚舉項即為最優缺省方向。
在構建樹的過程中需要枚舉特征缺失的樣本,乍一看這個算法會多出相當於一倍的計算量,但其實不是的。因為在算法的迭代中只考慮了非缺失值數據的遍歷,缺失值數據直接被分配到左右節點,所需要遍歷的樣本量大大減小。作者通過在Allstate-10K數據集上進行了實驗,從結果可以看到稀疏算法比普通算法在處理數據上快了超過50倍。
3. XGBoost的工程實現
3.1 列塊並行學習
在樹生成過程中,最耗時的一個步驟就是在每次尋找最佳分裂點時都需要對特征的值進行排序。而 XGBoost 在訓練之前會根據特征對數據進行排序,然后保存到塊結構中,並在每個塊結構中都采用了稀疏矩陣存儲格式(Compressed Sparse Columns Format,CSC)進行存儲,后面的訓練過程中會重復地使用塊結構,可以大大減小計算量。
作者提出通過按特征進行分塊並排序,在塊里面保存排序后的特征值及對應樣本的引用,以便於獲取樣本的一階、二階導數值。具體方式如圖:
通過順序訪問排序后的塊遍歷樣本特征的特征值,方便進行切分點的查找。此外分塊存儲后多個特征之間互不干涉,可以使用多線程同時對不同的特征進行切分點查找,即特征的並行化處理。在對節點進行分裂時需要選擇增益最大的特征作為分裂,這時各個特征的增益計算可以同時進行,這也是 XGBoost 能夠實現分布式或者多線程計算的原因。
3.2 緩存訪問
列塊並行學習的設計可以減少節點分裂時的計算量,在順序訪問特征值時,訪問的是一塊連續的內存空間,但通過特征值持有的索引(樣本索引)訪問樣本獲取一階、二階導數時,這個訪問操作訪問的內存空間並不連續,這樣可能造成cpu緩存命中率低,影響算法效率。
為了解決緩存命中率低的問題,XGBoost 提出了緩存訪問算法:為每個線程分配一個連續的緩存區,將需要的梯度信息存放在緩沖區中,這樣就實現了非連續空間到連續空間的轉換,提高了算法效率。此外適當調整塊大小,也可以有助於緩存優化。
3.3 “核外”塊計算
當數據量非常大時,我們不能把所有的數據都加載到內存中。那么就必須將一部分需要加載進內存的數據先存放在硬盤中,當需要時再加載進內存。這樣操作具有很明顯的瓶頸,即硬盤的IO操作速度遠遠低於內存的處理速度,肯定會存在大量等待硬盤IO操作的情況。針對這個問題作者提出了“核外”計算的優化方法。具體操作為,將數據集分成多個塊存放在硬盤中,使用一個獨立的線程專門從硬盤讀取數據,加載到內存中,這樣算法在內存中處理數據就可以和從硬盤讀取數據同時進行。此外,XGBoost 還用了兩種方法來降低硬盤讀寫的開銷:
- 塊壓縮(Block Compression)。論文使用的是按列進行壓縮,讀取的時候用另外的線程解壓。對於行索引,只保存第一個索引值,然后用16位的整數保存與該block第一個索引的差值。作者通過測試在block設置為
個樣本大小時,壓縮比率幾乎達到26%
29%。
- 塊分區(Block Sharding )。塊分區是將特征block分區存放在不同的硬盤上,以此來增加硬盤IO的吞吐量。
4. XGBoost的優缺點
4.1 優點
- 精度更高:GBDT 只用到一階泰勒展開,而 XGBoost 對損失函數進行了二階泰勒展開。XGBoost 引入二階導一方面是為了增加精度,另一方面也是為了能夠自定義損失函數,二階泰勒展開可以近似大量損失函數;
- 靈活性更強:GBDT 以 CART 作為基分類器,XGBoost 不僅支持 CART 還支持線性分類器,使用線性分類器的 XGBoost 相當於帶 L1 和 L2 正則化項的邏輯斯蒂回歸(分類問題)或者線性回歸(回歸問題)。此外,XGBoost 工具支持自定義損失函數,只需函數支持一階和二階求導;
- 正則化:XGBoost 在目標函數中加入了正則項,用於控制模型的復雜度。正則項里包含了樹的葉子節點個數、葉子節點權重的 L2 范式。正則項降低了模型的方差,使學習出來的模型更加簡單,有助於防止過擬合,這也是XGBoost優於傳統GBDT的一個特性。
- Shrinkage(縮減):相當於學習速率。XGBoost 在進行完一次迭代后,會將葉子節點的權重乘上該系數,主要是為了削弱每棵樹的影響,讓后面有更大的學習空間。傳統GBDT的實現也有學習速率;
- 列抽樣:XGBoost 借鑒了隨機森林的做法,支持列抽樣,不僅能降低過擬合,還能減少計算。這也是XGBoost異於傳統GBDT的一個特性;
- 缺失值處理:對於特征的值有缺失的樣本,XGBoost 采用的稀疏感知算法可以自動學習出它的分裂方向;
- XGBoost工具支持並行:boosting不是一種串行的結構嗎?怎么並行的?注意XGBoost的並行不是tree粒度的並行,XGBoost也是一次迭代完才能進行下一次迭代的(第t次迭代的代價函數里包含了前面t-1次迭代的預測值)。XGBoost的並行是在特征粒度上的。我們知道,決策樹的學習最耗時的一個步驟就是對特征的值進行排序(因為要確定最佳分割點),XGBoost在訓練之前,預先對數據進行了排序,然后保存為block結構,后面的迭代中重復地使用這個結構,大大減小計算量。這個block結構也使得並行成為了可能,在進行節點的分裂時,需要計算每個特征的增益,最終選增益最大的那個特征去做分裂,那么各個特征的增益計算就可以開多線程進行。
- 可並行的近似算法:樹節點在進行分裂時,我們需要計算每個特征的每個分割點對應的增益,即用貪心法枚舉所有可能的分割點。當數據無法一次載入內存或者在分布式情況下,貪心算法效率就會變得很低,所以XGBoost還提出了一種可並行的近似算法,用於高效地生成候選的分割點。
4.2 缺點
- 雖然利用預排序和近似算法可以降低尋找最佳分裂點的計算量,但在節點分裂過程中仍需要遍歷數據集;
- 預排序過程的空間復雜度過高,不僅需要存儲特征值,還需要存儲特征對應樣本的梯度統計值的索引,相當於消耗了兩倍的內存。
5. XGBoost實例
本篇文章所有數據集和代碼均在我的GitHub中,地址:https://github.com/Microstrong0305/WeChat-zhihu-csdnblog-code/tree/master/Ensemble%20Learning/XGBoost
5.1 安裝XGBoost依賴包
pip install xgboost
5.2 XGBoost分類和回歸
XGBoost有兩大類接口:XGBoost原生接口 和 scikit-learn接口 ,並且XGBoost能夠實現分類和回歸兩種任務。
(1)基於XGBoost原生接口的分類
from sklearn.datasets import load_iris import xgboost as xgb from xgboost import plot_importance from matplotlib import pyplot as plt from sklearn.model_selection import train_test_split # read in the iris data iris = load_iris() X = iris.data y = iris.target # split train data and test data X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1234565) # set XGBoost's parameters params = { 'booster': 'gbtree', 'objective': 'multi:softmax', # 回歸任務設置為:'objective': 'reg:gamma', 'num_class': 3, # 回歸任務沒有這個參數 'gamma': 0.1, 'max_depth': 6, 'lambda': 2, 'subsample': 0.7, 'colsample_bytree': 0.7, 'min_child_weight': 3, 'silent': 1, 'eta': 0.1, 'seed': 1000, 'nthread': 4, } plst = params.items() dtrain = xgb.DMatrix(X_train, y_train) num_rounds = 500 model = xgb.train(plst, dtrain, num_rounds) # 對測試集進行預測 dtest = xgb.DMatrix(X_test) ans = model.predict(dtest) # 計算准確率 cnt1 = 0 cnt2 = 0 for i in range(len(y_test)): if ans[i] == y_test[i]: cnt1 += 1 else: cnt2 += 1 print("Accuracy: %.2f %% " % (100 * cnt1 / (cnt1 + cnt2))) # 顯示重要特征 plot_importance(model) plt.show()
(2)基於Scikit-learn接口的回歸
這里,我們用Kaggle比賽中回歸問題:House Prices: Advanced Regression Techniques,地址:https://www.kaggle.com/c/house-prices-advanced-regression-techniques 來進行實例講解。
該房價預測的訓練數據集中一共有81列,第一列是Id,最后一列是label,中間79列是特征。這79列特征中,有43列是分類型變量,33列是整數變量,3列是浮點型變量。訓練數據集中存在缺失值。
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.impute import SimpleImputer
import xgboost as xgb
from sklearn.metrics import mean_absolute_error
# 1.讀文件
data = pd.read_csv('./dataset/train.csv')
data.dropna(axis=0, subset=['SalePrice'], inplace=True)
# 2.切分數據輸入:特征 輸出:預測目標變量
y = data.SalePrice
X = data.drop(['SalePrice'], axis=1).select_dtypes(exclude=['object'])
# 3.切分訓練集、測試集,切分比例7.5 : 2.5
train_X, test_X, train_y, test_y = train_test_split(X.values, y.values, test_size=0.25)
# 4.空值處理,默認方法:使用特征列的平均值進行填充
my_imputer = SimpleImputer()
train_X = my_imputer.fit_transform(train_X)
test_X = my_imputer.transform(test_X)
# 5.調用XGBoost模型,使用訓練集數據進行訓練(擬合)
# Add verbosity=2 to print messages while running boosting
my_model = xgb.XGBRegressor(objective='reg:squarederror', verbosity=2) # xgb.XGBClassifier() XGBoost分類模型
my_model.fit(train_X, train_y, verbose=False)
# 6.使用模型對測試集數據進行預測
predictions = my_model.predict(test_X)
# 7.對模型的預測結果進行評判(平均絕對誤差)
print("Mean Absolute Error : " + str(mean_absolute_error(predictions, test_y)))
5.3 XGBoost調參
在上一部分中,XGBoot模型的參數都使用了模型的默認參數,但默認參數並不是最好的。要想讓XGBoost表現的更好,需要對XGBoost模型進行參數微調。下圖展示的是分類模型需要調節的參數,回歸模型需要調節的參數與此類似。
6. 關於XGBoost若干問題的思考
6.1 XGBoost與GBDT的聯系和區別有哪些?
(1)GBDT是機器學習算法,XGBoost是該算法的工程實現。
(2)正則項:在使用CART作為基分類器時,XGBoost顯式地加入了正則項來控制模型的復雜度,有利於防止過擬合,從而提高模型的泛化能力。
(3)導數信息:GBDT在模型訓練時只使用了代價函數的一階導數信息,XGBoost對代價函數進行二階泰勒展開,可以同時使用一階和二階導數。
(4)基分類器:傳統的GBDT采用CART作為基分類器,XGBoost支持多種類型的基分類器,比如線性分類器。
(5)子采樣:傳統的GBDT在每輪迭代時使用全部的數據,XGBoost則采用了與隨機森林相似的策略,支持對數據進行采樣。
(6)缺失值處理:傳統GBDT沒有設計對缺失值進行處理,XGBoost能夠自動學習出缺失值的處理策略。
(7)並行化:傳統GBDT沒有進行並行化設計,注意不是tree維度的並行,而是特征維度的並行。XGBoost預先將每個特征按特征值排好序,存儲為塊結構,分裂結點時可以采用多線程並行查找每個特征的最佳分割點,極大提升訓練速度。
6.2 為什么XGBoost泰勒二階展開后效果就比較好呢?
(1)從為什么會想到引入泰勒二階的角度來說(可擴展性):XGBoost官網上有說,當目標函數是MSE時,展開是一階項(殘差)+二階項的形式,而其它目標函數,如logistic loss的展開式就沒有這樣的形式。為了能有個統一的形式,所以采用泰勒展開來得到二階項,這樣就能把MSE推導的那套直接復用到其它自定義損失函數上。簡短來說,就是為了統一損失函數求導的形式以支持自定義損失函數。至於為什么要在形式上與MSE統一?是因為MSE是最普遍且常用的損失函數,而且求導最容易,求導后的形式也十分簡單。所以理論上只要損失函數形式與MSE統一了,那就只用推導MSE就好了。
(2)從二階導本身的性質,也就是從為什么要用泰勒二階展開的角度來說(精准性):二階信息本身就能讓梯度收斂更快更准確。這一點在優化算法里的牛頓法中已經證實。可以簡單認為一階導指引梯度方向,二階導指引梯度方向如何變化。簡單來說,相對於GBDT的一階泰勒展開,XGBoost采用二階泰勒展開,可以更為精准的逼近真實的損失函數。
6.3 XGBoost對缺失值是怎么處理的?
在普通的GBDT策略中,對於缺失值的方法是先手動對缺失值進行填充,然后當做有值的特征進行處理,但是這樣人工填充不一定准確,而且沒有什么理論依據。而XGBoost采取的策略是先不處理那些值缺失的樣本,采用那些有值的樣本搞出分裂點,在遍歷每個有值特征的時候,嘗試將缺失樣本划入左子樹和右子樹,選擇使損失最優的值作為分裂點。
6.4 XGBoost為什么可以並行訓練?
(1)XGBoost的並行,並不是說每棵樹可以並行訓練,XGBoost本質上仍然采用boosting思想,每棵樹訓練前需要等前面的樹訓練完成才能開始訓練。
(2)XGBoost的並行,指的是特征維度的並行:在訓練之前,每個特征按特征值對樣本進行預排序,並存儲為Block結構,在后面查找特征分割點時可以重復使用,而且特征已經被存儲為一個個block結構,那么在尋找每個特征的最佳分割點時,可以利用多線程對每個block並行計算。
7.個人補充
1.XGBoost相較於GBDT,在算法上的優化,體現在:(1)損失函數中增加了正則項,並且將損失函數用二階泰勒級數展開;(2)弱學期器支持除決策樹外的多種,但主流的還是使用決策樹
2.盡管在XGBoost算法中,一般采用CART樹作為弱學習器,但是樹在分裂時使用的評判標准不是gini系數,而是基於樣本在損失函數上的一階導數和、二階導數和的表達式,因此不能說是純粹的CART樹