吳恩達深度學習:2.1Logistic Regression邏輯回歸及其損失函數


1.Logistic Regression是一個二元分類問題

  (1)已知輸入的特征向量x可能是一張圖,你希望把它識別出來,這是不是貓圖,你需要一個算法,可以給出預測值,更正式的y是一個概率,當輸入特征x滿足條件的時候y就是1。換句話說,如果x是圖片,那就需要拿到一張貓圖的概率。

  (2)Sigmoid函數。這里就不多說了,關於sigmoid自己百度,很簡單

  (3)為了訓練logistic回歸模型的參數w和b,需要定義一個代價函數,接下來看看用logistic regression來訓練的代價函數

  

  這里我們想通過訓練集來找到參數w和b,來得到相應的輸出

  (4)接下來看看損失函數或者叫做誤差函數,你可以將損失定義為(y真實值-y預測值)^2,但是在logistc回歸中,大家都不這樣做,因為當你學習參數的時候,你會發現后續討論的優化問題會變成非凸的,最后會得到很多歌局部最優解。梯度下降算法可能找不到全局最優值,但是這個L值可以用來衡量你的預測輸出值和真實值有多接近。所以在logistic函數中,我們用下面這個式子來進行損失函數的計算:

  

  對於這個損失函數,希望它盡可能的小

  (4)ex1:當y=1的時候,,因為如果y=1的時候,第二項1-y就等於0,這就是說當y=1的時候,如果想讓損失函數盡可能的小,這就意味着要盡可能的大,這就意味着要盡可能的大,但是sigmoid函數的輸出永遠不可能比1大,也就是說y=1時,讓盡可能的大,但是它永遠不可能大於1,所以要讓接近1,

  (5)ex2:當y=0的時候,損失函數的第一項等於0,因為y是0,所以這個第二項就是這個損失函數,所以損失函數變成,在學習過程中,想要損失函數小一些,這就意味着足夠大

  (6)成本函數:衡量的是在全體訓練樣本上的表現,我們要找到合適的w和b,讓這里的成本函數J盡可能的小

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM