---恢復內容開始---
分類:用一部分屬性去預測另一部分屬性
預測:根據自變量給出因變量的估計值
分類和預測本質上一回事
回歸類預測和分類:
Logistic回歸(因變量為0,1)
softmax回歸(因變量為類別型)
泊松回歸(因變量為計數)
Lesso回歸:限制模的長度/嶺回歸:限制模的平方(出現多重共線性)
穩健回歸Robust:對異常值十分敏感的目標函數進行修改,例如最小中位平方(LMS)法
分類模型:決策樹
1.決策樹的生成:
貪婪算法,局部最優
根據某一屬性對數據進行分裂,以達到某一標准最優值
2.如何度量節點的純度:
(1)GINI index
GINI越大表示越不純
3.熵
熵越大越不純
4.Gain信息增益
5.信息增益比:防止過擬合
朴素貝葉斯
支持向量機:
最大化‘Margin’
可以經過轉換,使得高次降次,最后變成直線
---恢復內容結束---
分類:用一部分屬性去預測另一部分屬性
預測:根據自變量給出因變量的估計值
分類和預測本質上一回事
回歸類預測和分類:
Logistic回歸(因變量為0,1)
softmax回歸(因變量為類別型)
泊松回歸(因變量為計數)
Lesso回歸:限制模的長度/嶺回歸:限制模的平方(出現多重共線性)
穩健回歸Robust:對異常值十分敏感的目標函數進行修改,例如最小中位平方(LMS)法
分類模型:決策樹
1.決策樹的生成:
貪婪算法,局部最優
根據某一屬性對數據進行分裂,以達到某一標准最優值
2.如何度量節點的純度:
(1)GINI index
GINI越大表示越不純
3.熵
熵越小