集成算法


 

Bagging

典型的代表:隨機森林。

從訓練集從進行子抽樣組成每個基模型所需要的子訓練集,對所有基模型預測的結果進行綜合產生最終的預測結果:

 

 

Boosting

典型代表:AdaBoost, Xgboost。

訓練過程為階梯狀,基模型按次序一一進行訓練(實現上可以做到並行),基模型的訓練集按照某種策略每次都進行一定的轉化。如果某一個數據在這次分錯了,那么在下一次我就會給它更大的權重。對所有基模型預測的結果進行線性綜合產生最終的預測結果:

 

Stacking

將訓練好的所有基模型對訓練基進行預測,第j個基模型對第i個訓練樣本的預測值將作為新的訓練集中第i個樣本的第j個特征值,最后基於新的訓練集進行訓練。同理,預測的過程也要先經過所有基模型的預測形成新的測試集,最后再對測試集進行預測:

 

 

 

--------------------- 

作者:ukakasu 

來源:CSDN 

原文:https://blog.csdn.net/ukakasu/article/details/82781047 

 

 

Boosting
典型代表:AdaBoost, Xgboost。
訓練過程為階梯狀,基模型按次序一一進行訓練(實現上可以做到並行),基模型的訓練集按照某種策略每次都進行一定的轉化。如果某一個數據在這次分錯了,那么在下一次我就會給它更大的權重。對所有基模型預測的結果進行線性綜合產生最終的預測結果:


Stacking
將訓練好的所有基模型對訓練基進行預測,第j個基模型對第i個訓練樣本的預測值將作為新的訓練集中第i個樣本的第j個特征值,最后基於新的訓練集進行訓練。同理,預測的過程也要先經過所有基模型的預測形成新的測試集,最后再對測試集進行預測:


--------------------- 作者:ukakasu 來源:CSDN 原文:https://blog.csdn.net/ukakasu/article/details/82781047 版權聲明:本文為博主原創文章,轉載請附上博文鏈接!


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM