xgboost原理


 

1.序

  距離上一次編輯將近10個月,幸得愛可可老師(微博)推薦,訪問量陡增。最近畢業論文與xgboost相關,於是重新寫一下這篇文章。

  關於xgboost的原理網絡上的資源很少,大多數還停留在應用層面,本文通過學習陳天奇博士的PPT、論文、一些網絡資源,希望對xgboost原理進行深入理解。(筆者在最后的參考文獻中會給出地址

2.xgboost vs gbdt

  說到xgboost,不得不說gbdt,兩者都是boosting方法(如圖1所示),了解gbdt可以看我這篇文章 地址

 

 
圖1

 

  如果不考慮工程實現、解決問題上的一些差異,xgboost與gbdt比較大的不同就是目標函數的定義。

 

 

  注:紅色箭頭指向的l即為損失函數;紅色方框為正則項,包括L1、L2;紅色圓圈為常數項。xgboost利用泰勒展開三項,做一個近似,我們可以很清晰地看到,最終的目標函數只依賴於每個數據點的在誤差函數上的一階導數和二階導數。

3.原理

對於上面給出的目標函數,我們可以進一步化簡

(1)定義樹的復雜度

對於f的定義做一下細化,把樹拆分成結構部分q葉子權重部分w。下圖是一個具體的例子。結構函數q把輸入映射到葉子的索引號上面去,而w給定了每個索引號對應的葉子分數是什么。

 

 

定義這個復雜度包含了一棵樹里面節點的個數,以及每個樹葉子節點上面輸出分數的L2模平方。當然這不是唯一的一種定義方式,不過這一定義方式學習出的樹效果一般都比較不錯。下圖還給出了復雜度計算的一個例子。

 

 

注:方框部分在最終的模型公式中控制這部分的比重,對應模型參數中的lambda ,gamma

在這種新的定義下,我們可以把目標函數進行如下改寫,其中I被定義為每個葉子上面樣本集合 ,g是一階導數,h是二階導數

 

 

這一個目標包含了T個相互獨立的單變量二次函數。我們可以定義

 

 

最終公式可以化簡為

 

 

通過對求導等於0,可以得到

 

 

然后把最優解代入得到:

 

 

(2)打分函數計算示例

Obj代表了當我們指定一個樹的結構的時候,我們在目標上面最多減少多少。我們可以把它叫做結構分數(structure score)

(3)分裂節點

論文中給出了兩種分裂節點的方法

(1)貪心法:

每一次嘗試去對已有的葉子加入一個分割

 

 

對於每次擴展,我們還是要枚舉所有可能的分割方案,如何高效地枚舉所有的分割呢?我假設我們要枚舉所有x < a 這樣的條件,對於某個特定的分割a我們要計算a左邊和右邊的導數和。

 

 

我們可以發現對於所有的a,我們只要做一遍從左到右的掃描就可以枚舉出所有分割的梯度和GL和GR。然后用上面的公式計算每個分割方案的分數就可以了。

觀察這個目標函數,大家會發現第二個值得注意的事情就是引入分割不一定會使得情況變好,因為我們有一個引入新葉子的懲罰項。優化這個目標對應了樹的剪枝, 當引入的分割帶來的增益小於一個閥值的時候,我們可以剪掉這個分割。大家可以發現,當我們正式地推導目標的時候,像計算分數和剪枝這樣的策略都會自然地出現,而不再是一種因為heuristic(啟發式)而進行的操作了。

下面是論文中的算法

 

 

(2)近似算法:

主要針對數據太大,不能直接進行計算

 

 

4.自定義損失函數(指定grad、hess)

(1)損失函數

(2)grad、hess推導

(3)官方代碼

#!/usr/bin/python import numpy as np import xgboost as xgb ### # advanced: customized loss function # print ('start running example to used customized objective function') dtrain = xgb.DMatrix('../data/agaricus.txt.train') dtest = xgb.DMatrix('../data/agaricus.txt.test') # note: for customized objective function, we leave objective as default # note: what we are getting is margin value in prediction # you must know what you are doing param = {'max_depth': 2, 'eta': 1, 'silent': 1} watchlist = [(dtest, 'eval'), (dtrain, 'train')] num_round = 2 # user define objective function, given prediction, return gradient and second order gradient # this is log likelihood loss def logregobj(preds, dtrain): labels = dtrain.get_label() preds = 1.0 / (1.0 + np.exp(-preds)) grad = preds - labels hess = preds * (1.0-preds) return grad, hess # user defined evaluation function, return a pair metric_name, result # NOTE: when you do customized loss function, the default prediction value is margin # this may make builtin evaluation metric not function properly # for example, we are doing logistic loss, the prediction is score before logistic transformation # the builtin evaluation error assumes input is after logistic transformation # Take this in mind when you use the customization, and maybe you need write customized evaluation function def evalerror(preds, dtrain): labels = dtrain.get_label() # return a pair metric_name, result # since preds are margin(before logistic transformation, cutoff at 0) return 'error', float(sum(labels != (preds > 0.0))) / len(labels) # training with customized objective, we can also do step by step training # simply look at xgboost.py's implementation of train bst = xgb.train(param, dtrain, num_round, watchlist, logregobj, evalerror)
  • 42

5.Xgboost調參

由於xgboost的參數過多,這里介紹三種思路

(1)GridSearch

(2)Hyperopt

(3)老外寫的一篇文章,操作性比較強,推薦學習一下。地址

6.工程實現優化

(1)Column Blocks and Parallelization

 

 

(2)Cache Aware Access

  • A thread pre-fetches data from non-continuous memory into a continuous bu ffer.
  • The main thread accumulates gradients statistics in the continuous buff er.

(3)System Tricks

  • Block pre-fetching.
  • Utilize multiple disks to parallelize disk operations.
  • LZ4 compression(popular recent years for outstanding performance).
  • Unrolling loops.
  • OpenMP

7.代碼走讀

這塊非常感謝楊軍老師的無私奉獻【4】

個人看代碼用的是SourceInsight,由於xgboost有些文件是cc后綴名,可以通過以下命令修改下(默認的識別不了)

find ./ -name "*.cc" | awk -F "." '{print $2}' | xargs -i -t mv ./{}.cc ./{}.cpp

實際上,對XGBoost的源碼進行走讀分析之后,能夠看到下面的主流程:

cli_main.cc: main() -> CLIRunTask() -> CLITrain() -> DMatrix::Load() -> learner = Learner::Create() -> learner->Configure() -> learner->InitModel() -> for (i = 0; i < param.num_round; ++i) -> learner->UpdateOneIter() -> learner->Save() learner.cc: Create() -> new LearnerImpl() Configure() InitModel() -> LazyInitModel() -> obj_ = ObjFunction::Create() -> objective.cc Create() -> SoftmaxMultiClassObj(multiclass_obj.cc)/ LambdaRankObj(rank_obj.cc)/ RegLossObj(regression_obj.cc)/ PoissonRegression(regression_obj.cc) -> gbm_ = GradientBooster::Create() -> gbm.cc Create() -> GBTree(gbtree.cc)/ GBLinear(gblinear.cc) -> obj_->Configure() -> gbm_->Configure() UpdateOneIter() -> PredictRaw() -> obj_->GetGradient() -> gbm_->DoBoost() gbtree.cc: Configure() -> for (up in updaters) -> up->Init() DoBoost() -> BoostNewTrees() -> new_tree = new RegTree() -> for (up in updaters) -> up->Update(new_tree) tree_updater.cc: Create() -> ColMaker/DistColMaker(updater_colmaker.cc)/ SketchMaker(updater_skmaker.cc)/ TreeRefresher(updater_refresh.cc)/ TreePruner(updater_prune.cc)/ HistMaker/CQHistMaker/ GlobalProposalHistMaker/ QuantileHistMaker(updater_histmaker.cc)/ TreeSyncher(updater_sync.cc)

 

  • 56

從上面的代碼主流程可以看到,在XGBoost的實現中,對算法進行了模塊化的拆解,幾個重要的部分分別是:

I. ObjFunction:對應於不同的Loss Function,可以完成一階和二階導數的計算。 
II. GradientBooster:用於管理Boost方法生成的Model,注意,這里的Booster Model既可以對應於線性Booster Model,也可以對應於Tree Booster Model。 
III. Updater:用於建樹,根據具體的建樹策略不同,也會有多種Updater。比如,在XGBoost里為了性能優化,既提供了單機多線程並行加速,也支持多機分布式加速。也就提供了若干種不同的並行建樹的updater實現,按並行策略的不同,包括: 
  I). inter-feature exact parallelism (特征級精確並行) 
  II). inter-feature approximate parallelism(特征級近似並行,基於特征分bin計算,減少了枚舉所有特征分裂點的開銷) 
  III). intra-feature parallelism (特征內並行)

此外,為了避免overfit,還提供了一個用於對樹進行剪枝的updater(TreePruner),以及一個用於在分布式場景下完成結點模型參數信息通信的updater(TreeSyncher),這樣設計,關於建樹的主要操作都可以通過Updater鏈的方式串接起來,比較一致干凈,算是Decorator設計模式[4]的一種應用。

XGBoost的實現中,最重要的就是建樹環節,而建樹對應的代碼中,最主要的也是Updater的實現。所以我們會以Updater的實現作為介紹的入手點。

以ColMaker(單機版的inter-feature parallelism,實現了精確建樹的策略)為例,其建樹操作大致如下:

updater_colmaker.cc: ColMaker::Update() -> Builder builder; -> builder.Update() -> InitData() -> InitNewNode() // 為可用於split的樹結點(即葉子結點,初始情況下只有一個 // 葉結點,也就是根結點) 計算統計量,包括gain/weight等 -> for (depth = 0; depth < 樹的最大深度; ++depth) -> FindSplit() -> for (each feature) // 通過OpenMP獲取 // inter-feature parallelism -> UpdateSolution() -> EnumerateSplit() // 每個執行線程處理一個特征, // 選出每個特征的 // 最優split point -> ParallelFindSplit() // 多個執行線程同時處理一個特征,選出該特征 //的最優split point; // 在每個線程里匯總各個線程內分配到的數據樣 //本的統計量(grad/hess); // aggregate所有線程的樣本統計(grad/hess), //計算出每個線程分配到的樣本集合的邊界特征值作為 //split point的最優分割點; // 在每個線程分配到的樣本集合對應的特征值集合進 //行枚舉作為split point,選出最優分割點 -> SyncBestSolution() // 上面的UpdateSolution()/ParallelFindSplit() //會為所有待擴展分割的葉結點找到特征維度的最優split //point,比如對於葉結點A,OpenMP線程1會找到特征F1 //的最優split point,OpenMP線程2會找到特征F2的最 //優split point,所以需要進行全局sync,找到葉結點A //的最優split point。 -> 為需要進行分割的葉結點創建孩子結點 -> ResetPosition() //根據上一步的分割動作,更新樣本到樹結點的映射關系 // Missing Value(i.e. default)和非Missing Value(i.e. //non-default)分別處理 -> UpdateQueueExpand() // 將待擴展分割的葉子結點用於替換qexpand_,作為下一輪split的 //起始基礎 -> InitNewNode() // 為可用於split的樹結點計算統計量
  • 39
  • 40
  • 41

8.python、R對於xgboost的簡單使用

任務:二分類,存在樣本不均衡問題(scale_pos_weight可以一定程度上解讀此問題)

Python

 

 

【R】

 

 

9.xgboost中比較重要的參數介紹

(1)objective [ default=reg:linear ] 定義學習任務及相應的學習目標,可選的目標函數如下:

  • “reg:linear” –線性回歸。
  • “reg:logistic” –邏輯回歸。
  • “binary:logistic” –二分類的邏輯回歸問題,輸出為概率。
  • “binary:logitraw” –二分類的邏輯回歸問題,輸出的結果為wTx。
  • “count:poisson” –計數問題的poisson回歸,輸出結果為poisson分布。 在poisson回歸中,max_delta_step的缺省值為0.7。(used to safeguard optimization)
  • “multi:softmax” –讓XGBoost采用softmax目標函數處理多分類問題,同時需要設置參數num_class(類別個數)
  • “multi:softprob” –和softmax一樣,但是輸出的是ndata * nclass的向量,可以將該向量reshape成ndata行nclass列的矩陣。沒行數據表示樣本所屬於每個類別的概率。
  • “rank:pairwise” –set XGBoost to do ranking task by minimizing the pairwise loss

(2)’eval_metric’ The choices are listed below,評估指標:

  • “rmse”: root mean square error
  • “logloss”: negative log-likelihood
  • “error”: Binary classification error rate. It is calculated as #(wrong cases)/#(all cases). For the predictions, the evaluation will regard the instances with prediction value larger than 0.5 as positive instances, and the others as negative instances.
  • “merror”: Multiclass classification error rate. It is calculated as #(wrong cases)/#(all cases).
  • “mlogloss”: Multiclass logloss
  • “auc”: Area under the curve for ranking evaluation.
  • “ndcg”:Normalized Discounted Cumulative Gain
  • “map”:Mean average precision
  • “ndcg@n”,”map@n”: n can be assigned as an integer to cut off the top positions in the lists for evaluation.
  • “ndcg-“,”map-“,”ndcg@n-“,”map@n-“: In XGBoost, NDCG and MAP will evaluate the score of a list without any positive samples as 1. By adding “-” in the evaluation metric XGBoost will evaluate these score as 0 to be consistent under some conditions.

(3)lambda [default=0] L2 正則的懲罰系數

(4)alpha [default=0] L1 正則的懲罰系數

(5)lambda_bias 在偏置上的L2正則。缺省值為0(在L1上沒有偏置項的正則,因為L1時偏置不重要)

(6)eta [default=0.3] 
為了防止過擬合,更新過程中用到的收縮步長。在每次提升計算之后,算法會直接獲得新特征的權重。 eta通過縮減特征的權重使提升計算過程更加保守。缺省值為0.3 
取值范圍為:[0,1]

(7)max_depth [default=6] 數的最大深度。缺省值為6 ,取值范圍為:[1,∞]

(8)min_child_weight [default=1] 
孩子節點中最小的樣本權重和。如果一個葉子節點的樣本權重和小於min_child_weight則拆分過程結束。在現行回歸模型中,這個參數是指建立每個模型所需要的最小樣本數。該成熟越大算法越conservative 
取值范圍為: [0,∞]

10.Tip

(1)含有缺失進行訓練 
dtrain = xgb.DMatrix(x_train, y_train, missing=np.nan)

11.參考文獻

(1)xgboost導讀和實戰 
(2)xgboost 
(3)自定義目標函數 
(4)機器學習算法中GBDT和XGBOOST的區別有哪些? 
(5)XGBoost: Reliable Large-scale Tree Boosting System 
(6)XGBoost: A Scalable Tree Boosting System 

 轉:http://blog.csdn.net/a819825294/article/details/51206410


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM