邏輯斯諦回歸


邏輯斯諦分布

X是連續隨機變量,X服從邏輯斯諦分布是指X服從如下分布函數和密度函數:

 

其中,為位置參數,> 0 為形狀參數。

密度函數fx和分布函數Fx的圖形如圖所示:

 

分布函數屬於邏輯斯諦函數,其圖形是一條S形曲線,該曲線以點(μ,½)為中心對稱,即滿足;

 

 

曲線在中心附近增長速度較快,在兩端增長速度較慢,形狀參數γ的值越小,曲線在中心附近增長的越快。

二項邏輯斯諦回歸模型

是一種分類模型,由條件概率分布表示,形式為參數化的邏輯斯諦分布。隨機變量x的取值為實數,隨機變量y的取值為10,通過監督學習的方法來估計模型參數。

其條件概率模型如下:

 

 

其中x∈Rn是輸入,y∈{0,1}輸出,w,b是模型參數——w是權值向量,b稱作偏置,w·x是向量內積。

比較兩個條件概率值的大小,將實例x分到概率值較大的那一類。

為了方便將權值向量w和輸入向量x加以拓充w=(w(1),w(2),…w(n),b)T,x=(x(1),…x(n),1)T,此時邏輯斯諦模型可以表示為:

  

事件發生的幾率

是指該事件發生的概率和事件不發生的概率的比值。

定義對數幾率:

 

邏輯斯蒂而言:

 

輸出Y=1的對數幾率是輸入x的線性函數。或者說輸出Y=1的對數幾率是由輸入x的線性函數表示的模型,即邏輯斯蒂回歸模型。

換一個角度,通過邏輯斯諦回歸模型可以將線性函數w•x轉換為概率:

 

線性函數w·x的值越接近正無窮,概率值越接近1越接近負無窮,概率值越接近0。這樣的模型就是邏輯斯諦回歸模型。

模型參數估計

邏輯斯諦回歸模型學習時,可以應用極大似然估計法估計模型參數,從而得到邏輯斯諦回歸模型。(極大似然估計法參見附錄)

在模型學習的時候,對於給定訓練集T = {(x1,y1)…(xN,yN)},x∈Rn,y∈{0,1}

 

似然函數

 

則有對數似然函數

 

Lw)求極大值,得到w的估計值。這樣問題就變成了以對數似然函數為目標函數的最優化問題。邏輯斯諦回歸中通常采用的方法是梯度下降法及擬牛頓法。

多項邏輯斯諦回歸

上面介紹的二分類模型可以推廣到用於多分類的多項模型。假設隨機變量的取值集合是{1,2,3.......K},那么多項邏輯斯諦回歸模型是

附錄:極大似然估計法

它是建立在極大似然原理的基礎上的一個統計方法,極大似然原理的直觀想法是:一個隨機試驗如有若干個可能的結果ABC。若在僅僅作一次試驗中,結果A出現,則一般認為試驗條件對A出現有利,也即A出現的概率很大。一般地,事件A發生的概率與參數theta相關,A發生的概率記為P(Atheta),則theta的估計應該使上述概率達到最大,這樣的theta顧名思義稱為極大似然估計。

求極大似然函數估計值的一般步驟:

1) 寫出似然函數

2) 對似然函數取對數,並整理;

3) 求導數 

4) 解似然方程 。

極大似然估計,只是一種概率論在統計學的應用,它是參數估計的方法之一。說的是已知某個隨機樣本滿足某種概率分布,但是其中具體的參數不清楚,參數估計就是通過若干次試驗,觀察其結果,利用結果推出參數的大概值。極大似然估計是建立在這樣的思想上:已知某個參數能使這個樣本出現的概率最大,我們當然不會再去選擇其他小概率的樣本,所以干脆就把這個參數作為估計的真實值。

當然極大似然估計只是一種粗略的數學期望,要知道它的誤差大小還要做區間估計。

 參考:

《統計學習方法》

http://www.hankcs.com/ml/the-logistic-regression-and-the-maximum-entropy-model.html

百度百科


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM