回顧一下線性分類、線性回歸和邏輯回歸模型:
三個模型的錯誤恆量為:
所以常用邏輯錯誤恆量來做分類問題,即
對於多分類的問題,可以利用邏輯回歸訓練多個分類器,把其中一個當做一類,其他的作為一類
例如:
得出是個邏輯回歸的軟分類器
分別輸入四個分類器,比較出哪個分類器得出的幾率較高,把輸入歸為相應的類
但這種把其中一個作為一類,其他剩余的作為一類訓練分類器,會造成兩類數據的不平衡(例如,4種平均樣本,其中一種為一類,剩余3種為一類,則最后兩類樣本量為1:3),解決方法為,在n類樣本中選取兩個做分類,其余的樣本不用,這樣兩兩訓練一個分類器共得到m個分類器(例如,4類樣本,選取兩個訓練一個分類器,一共6個分類器)
輸入樣本,在每個分類器得出屬於的類,在m個結果中統計得票最多的類(或者幾率最高的類),作為最終的結果,適用於分類不多的情況。