1.Logistic Regression是一個二元分類問題
(1)已知輸入的特征向量x可能是一張圖,你希望把它識別出來,這是不是貓圖,你需要一個算法,可以給出預測值,更正式的y是一個概率,當輸入特征x滿足條件的時候y就是1。換句話說,如果x是圖片,那就需要拿到一張貓圖的概率。
(2)Sigmoid函數。這里就不多說了,關於sigmoid自己百度,很簡單
(3)為了訓練logistic回歸模型的參數w和b,需要定義一個代價函數,接下來看看用logistic regression來訓練的代價函數
這里我們想通過訓練集來找到參數w和b,來得到相應的輸出
(4)接下來看看損失函數或者叫做誤差函數,你可以將損失定義為(y真實值-y預測值)^2,但是在logistc回歸中,大家都不這樣做,因為當你學習參數的時候,你會發現后續討論的優化問題會變成非凸的,最后會得到很多歌局部最優解。梯度下降算法可能找不到全局最優值,但是這個L值可以用來衡量你的預測輸出值和真實值有多接近。所以在logistic函數中,我們用下面這個式子來進行損失函數的計算:
對於這個損失函數,希望它盡可能的小
(4)ex1:當y=1的時候,,因為如果y=1的時候,第二項1-y就等於0,這就是說當y=1的時候,如果想讓損失函數
盡可能的小,這就意味着
要盡可能的大,這就意味着
要盡可能的大,但是sigmoid函數的輸出永遠不可能比1大,也就是說y=1時,讓
盡可能的大,但是它永遠不可能大於1,所以要讓
接近1,
(5)ex2:當y=0的時候,損失函數的第一項等於0,因為y是0,所以這個第二項就是這個損失函數,所以損失函數變成
,在學習過程中,想要損失函數小一些,這就意味着
足夠大
(6)成本函數:衡量的是在全體訓練樣本上的表現,我們要找到合適的w和b,讓這里的成本函數J盡可能的小