吳恩達機器學習筆記17-邏輯回歸的代價函數


  在這段視頻中,我們要介紹如何擬合邏輯回歸模型的參數𝜃。具體來說,我要定義用來
擬合參數的優化目標或者叫代價函數,這便是監督學習問題中的邏輯回歸模型的擬合問題。

對於線性回歸模型,我們定義的代價函數是所有模型誤差的平方和。理論上來說,我們
也可以對邏輯回歸模型沿用這個定義,但是問題在於,當我們將帶入到這樣

定義了的代價函數中時,我們得到的代價函數將是一個非凸函數(non-convexfunction)。

  這意味着我們的代價函數有許多局部最小值,這將影響梯度下降算法尋找全局最小值。
線性回歸的代價函數為:

 

我們重新定義邏輯回歸的代價函數為:

,其中

ℎ𝜃 (𝑥)與 𝐶𝑜𝑠𝑡(ℎ𝜃(𝑥), 𝑦)之間的關系如下圖所示:

  這樣構建的𝐶𝑜𝑠𝑡(ℎ𝜃(𝑥), 𝑦)函數的特點是:當實際的 𝑦 = 1 且ℎ𝜃(𝑥)也為 1 時誤差為 0,
當 𝑦 = 1 但ℎ𝜃 (𝑥)不為1 時誤差隨着ℎ𝜃 (𝑥)變小而變大;當實際的 𝑦 = 0 且ℎ𝜃(𝑥)也為 0 時
代價為 0,當𝑦 = 0 但ℎ𝜃(𝑥)不為 0 時誤差隨着 ℎ𝜃 (𝑥)的變大而變大。
將構建的 𝐶𝑜𝑠𝑡(ℎ𝜃 (𝑥), 𝑦)簡化如下:

帶入代價函數得到:

  在得到這樣一個代價函數以后,我們便可以用梯度下降算法來求得能使代價函數最小的
參數了。算法為:

  在這個視頻中,我們定義了單訓練樣本的代價函數,凸性分析的內容是超出這門課的范
圍的,但是可以證明我們所選的代價值函數會給我們一個凸優化問題。代價函數𝐽(𝜃)會是一
個凸函數,並且沒有局部最優值。
代價函數求偏導的推導過程:

注:雖然得到的梯度下降算法表面上看上去與線性回歸的梯度下降算法一樣,但是這里
的ℎ𝜃(𝑥) = 𝑔(𝜃𝑇𝑋)與線性回歸中不同,所以實際上是不一樣的。另外,在運行梯度下降算法
之前,進行特征縮放依舊是非常必要的。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM