機器學習總結:幾種常見的損失函數(Loss function)


 

1. 平方損失函數 Square Error:

    $$L(f(x),y)=(f(x)-y)^{2}$$ 

    這時經驗風險函數是MSE,例如在線性回歸中出現

 

2. 絕對值損失函數: 

    $$L(f(x),y)=\vert f(x)-y\vert$$ 

   這時經驗風險函數就是MAE 

 

3. 0-1損失函數:

   $$L(f(x),y)=1_{\lbrace f(x)\neq y\rbrace}$$

 

4. 對數損失函數(crossentropy)

       $$L(P(y\mid x),y)=-\log P(y\mid x)$$

    對應模型:logistic回歸,softmax回歸

    注意到,對於非平衡的二分類問題,我們也可以適當加上類的權重$w(y)$使其稱為帶權的對數損失函數:

     $$L(P(y\mid x),y)=-w(y)\log P(y\mid x),$$

    例如某個而分類問題的訓練集:$D=\lbrace(x_{1},y_{1}),...,(x_{N},y_{n}), y_{i}\in\lbrace-1,+1\rbrace\rbrace$  

正例樣本數$P$遠遠小於負例樣本數{N},我們可以適當選取$w(+1)$,$w(-1)$使得$w(+1)P$與$w(-1)N$更加接近一些。

 

5.指數損失函數  Exponential loss Function:

       $$L(f(x),y)=\exp(-y\cdot f(x))$$

    對應模型:AdaBoost 

    我們注意到,在對數幾率回歸二分類模型中,事實上對數損失函數可以被指數損失函數控制:

      $$\log(1+\exp(-yf(x)))\leq \exp(-yf(x)),$$

    而指數損失函數更加便於計算和求導,於是它就適合作為AdaBoost中每一個弱分類器的損失函數。

 

6. Hinge損失函數

     $L(x)=[1-tx]_{+}$

    見於SVM中。

     

     

                               


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM