Bagging
典型的代表:隨機森林。
從訓練集從進行子抽樣組成每個基模型所需要的子訓練集,對所有基模型預測的結果進行綜合產生最終的預測結果:
Boosting
典型代表:AdaBoost, Xgboost。
訓練過程為階梯狀,基模型按次序一一進行訓練(實現上可以做到並行),基模型的訓練集按照某種策略每次都進行一定的轉化。如果某一個數據在這次分錯了,那么在下一次我就會給它更大的權重。對所有基模型預測的結果進行線性綜合產生最終的預測結果:
Stacking
將訓練好的所有基模型對訓練基進行預測,第j個基模型對第i個訓練樣本的預測值將作為新的訓練集中第i個樣本的第j個特征值,最后基於新的訓練集進行訓練。同理,預測的過程也要先經過所有基模型的預測形成新的測試集,最后再對測試集進行預測:
---------------------
作者:ukakasu
來源:CSDN
原文:https://blog.csdn.net/ukakasu/article/details/82781047
Boosting
典型代表:AdaBoost, Xgboost。
訓練過程為階梯狀,基模型按次序一一進行訓練(實現上可以做到並行),基模型的訓練集按照某種策略每次都進行一定的轉化。如果某一個數據在這次分錯了,那么在下一次我就會給它更大的權重。對所有基模型預測的結果進行線性綜合產生最終的預測結果:
Stacking
將訓練好的所有基模型對訓練基進行預測,第j個基模型對第i個訓練樣本的預測值將作為新的訓練集中第i個樣本的第j個特征值,最后基於新的訓練集進行訓練。同理,預測的過程也要先經過所有基模型的預測形成新的測試集,最后再對測試集進行預測:
--------------------- 作者:ukakasu 來源:CSDN 原文:https://blog.csdn.net/ukakasu/article/details/82781047 版權聲明:本文為博主原創文章,轉載請附上博文鏈接!