邏輯回歸算法(二分類)


一、邏輯回歸算法簡介

目的:經典的二分類算法

機器學習算法選擇:先邏輯回歸再復雜算法

決策邊界:可以是非線性的

邏輯回歸算法分三步(原理):(1)需要確定一個預測函數,即預測出一個值來判斷歸屬哪一類,可定義預測值大於某個閾值判斷為一類,反之為另一類;(2)為了計算參數,我們需要定義一個損失函數,損失函數用來衡量真實值和預測值之間的差異,這個差值越小說明預測效果越好(3)第三步,用梯度下降法計算參數,使損失函數不斷減小,得出參數后,帶入預測函數就可以來進行預測了。

邏輯回歸的優點: 
1)速度快,適合二分類問題 
2)簡單易於理解,直接看到各個特征的權重 
3)能容易地更新模型吸收新的數據 
缺點: 
對數據和場景的適應能力有局限性,不如決策樹算法適應性那么強

 

二、Sigmoid 函數

公式:

      (自變量取值為任意實數,值域[0,1])

解釋:將任意的輸入映射到了[0,1]區間,在線性回歸中可以得到一個預測值,再將該值映射到Sigmoid 函數中這樣就完成了由值到概率的轉換,也就是分類任務。

圖像:

 

預測函數:

  

分類任務:

    

整合:

    (為結果看起來更簡潔)

解釋:對於二分類任務(0,1),整合后y取0只保留,y取1只保留

 

 

三、似然函數

似然函數:

  

對數似然:

     

此時應用梯度上升求最大值,引入轉換為梯度下降任務(梯度上升轉換為梯度下降

求導過程:

   

   

 

四、參數更新,求解

參數更新:

     (阿發代表學習率,m是minibach)

 

五、多分類softmax

  

 

 

參考:

https://blog.csdn.net/chibangyuxun/article/details/53148005

https://mp.weixin.qq.com/s?src=11&timestamp=1562044618&ver=1703&signature=vLXDsNykZ0tATf2CiQ-uzVsnF1scHaOIKZnPgkbea-34X0fN2yPGpQOVR*8a-7HdGY4HGukRQj-fQBTT3Ulq2iqDWYUfsgvgVQBUXaCifAzXVwD8Zcr2nKdY9pjj2iXd&new=1(清晰明了)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM