每日一個機器學習算法——LR(邏輯回歸)


本系列文章用於匯集知識點,查漏補缺,面試找工作之用。數學公式較多,解釋較少。

1.假設

2.sigmoid函數:

3.假設的含義:

4.性質:

5.找一個凸損失函數

6.可由最大似然估計推導出

單個樣本正確預測的概率為

只是3兩個式子合並在一起的表示方法

整個樣本空間的概率分布為

取對數展開得,

作為損失函數,並且最小化它,則應改寫為5式。

7.求解方法

最原始的方法,梯度下降法

先求導,並帶入sigmoid表達式得

之后,參數更新為:

終止條件:

目前指定迭代次數。后續會談到更多判斷收斂和確定迭代終點的方法。

8.高級方法

共軛梯度

BFGS,L-BFGS

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM