對書法的熱愛,和編譯器打數學公式很艱難,就這樣的正例自己學過的東西,明天更新gbdt在分類方面的應用。
結論,如果要用一個常量來預測y,用log(sum(y)/sum(1-y))是一個最佳的選擇。
本人理解:多分類變成多個二分類,比如說當前類別A,訓練集的標簽為屬於A的為1,其他為0,該值為連續值(概率),基於這所有的樣本生成一棵樹;結果為對類別A的預測值f(x);然后B標簽,C標簽同理可得;然后通過softmax層處理下得到屬於各個類別的概率值;這里每一輪迭代都會和類別數目相同的樹;每一棵樹針對一個類別進行學習並輸出對應的分數,然后就n個類別的分數,經過softmax層變成概率值;