gbdt在回歸方面的基本原理以及實例並且可以做分類


對書法的熱愛,和編譯器打數學公式很艱難,就這樣的正例自己學過的東西,明天更新gbdt在分類方面的應用。

 

 

 結論,如果要用一個常量來預測y,用log(sum(y)/sum(1-y))是一個最佳的選擇。

 

 

 

 

 

 

本人理解:多分類變成多個二分類,比如說當前類別A,訓練集的標簽為屬於A的為1,其他為0,該值為連續值(概率),基於這所有的樣本生成一棵樹;結果為對類別A的預測值f(x);然后B標簽,C標簽同理可得;然后通過softmax層處理下得到屬於各個類別的概率值;這里每一輪迭代都會和類別數目相同的樹;每一棵樹針對一個類別進行學習並輸出對應的分數,然后就n個類別的分數,經過softmax層變成概率值;


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM