吳恩達機器學習第三周:Logistic Regression邏輯回歸


先來說說回歸的思想吧:

常見的回歸就是通過一系列的點,計算得到一條線。當有新的輸入時,可以直接計算得到輸出。用最小二乘法求解線性回歸方程就是我們最早接觸到的回歸。對於線的表示都不盡相同,如線性回歸得到的預測函數是y=w⃗ Tx⃗ +a,邏輯回歸則是一條S型曲線。

邏輯回歸和線性回歸(Linear Regression)的區別如下:

  • 普通線性回歸主要用於連續變量的預測,即,線性回歸的輸出y的取值范圍是整個實數區間(yR)
  • 邏輯回歸用於離散變量的分類,即它的輸出y的取值范圍是一個離散的集合,主要用於類的判別,而且其輸出值y表示屬於某一類的概

Logistic Regression邏輯回歸主要用於分類問題,常用來預測概率,如知道一個人的年齡、體重、身高、血壓等信息,預測其患心臟病的概率是多少。經典的LR用於二分類問題(只有0,1兩類)。

二分類問題

    二分類問題是指預測的y值只有兩個取值(0或1),二分類問題可以擴展到多分類問題。例如:我們要做一個垃圾郵件過濾系統,是郵件的特征,預測的y值就是郵件的類別,是垃圾郵件還是正常郵件。對於類別我們通常稱為正類(positive class)和負類(negative class),垃圾郵件的例子中,正類就是正常郵件,負類就是垃圾郵件。

邏輯回歸

Logistic函數

對於任意的x值,對應的y值都在區間(0,1)內。

函數公式為:

這個函數的曲線如下所示:

 

很像一個“S”型吧,所以又叫 sigmoid曲線(S型曲線)。

 

決策邊界(Decision Boundary)

 線性的決策邊界,如圖所示的決策邊界為x1+x2 = 3

 

另一種決策邊界,決策邊界為x1^2+ x2^2 = 1

 

邏輯回歸的代價函數:

邏輯回歸的代價函數很可能是一個非凸函數(non-convex),有很多局部最優點,所以如果用梯度下降法,不能保證會收斂到全局最小值。

 

 

 

 

多分類問題

 

 過擬合問題overfitting——正則化Regulation

 overfitting:If we have too many features, the learned hypothesis may fit the training set very well , but fail to generalize to new examples (predict prices on new examples).

 過擬合:如果特征值過多,學習模型能很好的適應訓練集,但無法對新數據進行很好的預測,泛化能力弱。

圖三屬於overfitting

解決方法:

1、減少特征數量(找主要的,或者用算法找)

2、正則化(保留所有參數,但較少維度或數量級)

正則化項:加入參數過多的懲罰,其中lamda是控制正則化參數

 

如果lamda過大,會造成欠擬合underfitting,相當於所有theta都約等於0,只剩第一項。

 

正則化線性回歸:正則化+梯度下降結合:

 

 

不懲罰theta0

正規方程的求解:

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM