logistic回歸參數說明


參考鏈接:https://www.cnblogs.com/Allen-rg/p/12573149.html

LogisticRegression回歸算法


LogisticRegression回歸模型在Sklearn.linear_model子類下,調用sklearn邏輯回歸算法步驟比較簡單,即:


    (1) 導入模型。調用邏輯回歸LogisticRegression()函數。


    (2) fit()訓練。調用fit(x,y)的方法來訓練模型,其中x為數據的屬性,y為所屬類型。


    (3) predict()預測。利用訓練得到的模型對數據集進行預測,返回預測結果。

 

代碼如下:

 

1
2
3
4
5
6
7
8
9
10
11
12
from  sklearn.linear_model  import  LogisticRegression  #導入邏輯回歸模型
clf  =  LogisticRegression()
print  clf
clf.fit(train_feature,label)
predict[ 'label' =  clf.predict(predict_feature)
 
輸出結果如下:
 
LogisticRegression(C = 1.0 , class_weight = None , dual = False , fit_intercept = True ,
intercept_scaling = 1 , max_iter = 100 , multi_class = 'ovr' , n_jobs = 1 ,
penalty = 'l2' , random_state = None , solver = 'liblinear' , tol = 0.0001 ,
verbose = 0 , warm_start = False )

  


其中,參數penalty表示懲罰項(L1、L2值可選。L1向量中各元素絕對值的和,作用是產生少量的特征,而其他特征


都是0,常用於特征選擇;L2向量中各個元素平方之和再開根號,作用是選擇較多的特征,使他們都趨近於0。); C

 

值的目標函數約束條件:s.t.||w||1<C,默認值是0,C值越小,則正則化強度越大。

 


2. 正則化選擇參數:penalty
    LogisticRegression和LogisticRegressionCV默認就帶了正則化項。penalty參數可選擇的值為"l1"和"l2".分別對應L1的正則化和L2的正則化,默認是L2的正則化。

    在調參時如果我們主要的目的只是為了解決過擬合,一般penalty選擇L2正則化就夠了。但是如果選擇L2正則化發現還是過擬合,即預測效果差的時候,就可以考慮L1正則化。另外,如果模型的特征非常多,我們希望一些不重要的特征系數歸零,從而讓模型系數稀疏化的話,也可以使用L1正則化。

    penalty參數的選擇會影響我們損失函數優化算法的選擇。即參數solver的選擇,如果是L2正則化,那么4種可選的算法{‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’}都可以選擇。但是如果penalty是L1正則化的話,就只能選擇‘liblinear’了。這是因為L1正則化的損失函數不是連續可導的,而{‘newton-cg’, ‘lbfgs’,‘sag’}這三種優化算法時都需要損失函數的一階或者二階連續導數。而‘liblinear’並沒有這個依賴。

3. 優化算法選擇參數:solver

    solver參數決定了我們對邏輯回歸損失函數的優化方法,有4種算法可以選擇,分別是:

    a) liblinear:使用了開源的liblinear庫實現,內部使用了坐標軸下降法來迭代優化損失函數。

    b) lbfgs:擬牛頓法的一種,利用損失函數二階導數矩陣即海森矩陣來迭代優化損失函數。

    c) newton-cg:也是牛頓法家族的一種,利用損失函數二階導數矩陣即海森矩陣來迭代優化損失函數。

    d) sag:即隨機平均梯度下降,是梯度下降法的變種,和普通梯度下降法的區別是每次迭代僅僅用一部分的樣本來計算梯度,適合於樣本數據多的時候,SAG是一種線性收斂算法,這個速度遠比SGD快。關於SAG的理解,參考博文線性收斂的隨機優化算法之 SAG、SVRG(隨機梯度下降)

     從上面的描述可以看出,newton-cg, lbfgs和sag這三種優化算法時都需要損失函數的一階或者二階連續導數,因此不能用於沒有連續導數的L1正則化,只能用於L2正則化。而liblinear通吃L1正則化和L2正則化。

    同時,sag每次僅僅使用了部分樣本進行梯度迭代,所以當樣本量少的時候不要選擇它,而如果樣本量非常大,比如大於10萬,sag是第一選擇。但是sag不能用於L1正則化,所以當你有大量的樣本,又需要L1正則化的話就要自己做取舍了。要么通過對樣本采樣來降低樣本量,要么回到L2正則化。

在sklearn的官方文檔中,對於solver的使用說明如下:

In a nutshell, one may choose the solver with the following rules:

Case Solver
Small dataset or L1 penalty “liblinear”
Multinomial loss or large dataset “lbfgs”, “sag” or “newton-cg”
Very Large dataset “sag”


    從上面的描述,大家可能覺得,既然newton-cg, lbfgs和sag這么多限制,如果不是大樣本,我們選擇liblinear不就行了嘛!錯,因為liblinear也有自己的弱點!我們知道,邏輯回歸有二元邏輯回歸和多元邏輯回歸。對於多元邏輯回歸常見的有one-vs-rest(OvR)和many-vs-many(MvM)兩種。而MvM一般比OvR分類相對准確一些。郁悶的是liblinear只支持OvR,不支持MvM,這樣如果我們需要相對精確的多元邏輯回歸時,就不能選擇liblinear了。也意味着如果我們需要相對精確的多元邏輯回歸不能使用L1正則化了。

總結而言,liblinear支持L1和L2,只支持OvR做多分類,“lbfgs”, “sag” “newton-cg”只支持L2,支持OvR和MvM做多分類。

    具體OvR和MvM有什么不同我們下一節講。

4. 分類方式選擇參數:multi_class
    multi_class參數決定了我們分類方式的選擇,有 ovr和multinomial兩個值可以選擇,默認是 ovr。

    ovr即前面提到的one-vs-rest(OvR),而multinomial即前面提到的many-vs-many(MvM)。如果是二元邏輯回歸,ovr和multinomial並沒有任何區別,區別主要在多元邏輯回歸上。

    OvR的思想很簡單,無論你是多少元邏輯回歸,我們都可以看做二元邏輯回歸。具體做法是,對於第K類的分類決策,我們把所有第K類的樣本作為正例,除了第K類樣本以外的所有樣本都作為負例,然后在上面做二元邏輯回歸,得到第K類的分類模型。其他類的分類模型獲得以此類推。

    而MvM則相對復雜,這里舉MvM的特例one-vs-one(OvO)作講解。如果模型有T類,我們每次在所有的T類樣本里面選擇兩類樣本出來,不妨記為T1類和T2類,把所有的輸出為T1和T2的樣本放在一起,把T1作為正例,T2作為負例,進行二元邏輯回歸,得到模型參數。我們一共需要T(T-1)/2次分類。

    從上面的描述可以看出OvR相對簡單,但分類效果相對略差(這里指大多數樣本分布情況,某些樣本分布下OvR可能更好)。而MvM分類相對精確,但是分類速度沒有OvR快。

    如果選擇了ovr,則4種損失函數的優化方法liblinear,newton-cg, lbfgs和sag都可以選擇。但是如果選擇了multinomial,則只能選擇newton-cg, lbfgs和sag了。

5. 類型權重參數: class_weight
    class_weight參數用於標示分類模型中各種類型的權重,可以不輸入,即不考慮權重,或者說所有類型的權重一樣。如果選擇輸入的話,可以選擇balanced讓類庫自己計算類型權重,或者我們自己輸入各個類型的權重,比如對於0,1的二元模型,我們可以定義class_weight={0:0.9, 1:0.1},這樣類型0的權重為90%,而類型1的權重為10%。

    如果class_weight選擇balanced,那么類庫會根據訓練樣本量來計算權重。某種類型樣本量越多,則權重越低,樣本量越少,則權重越高。

sklearn的官方文檔中,當class_weight為balanced時,類權重計算方法如下:

n_samples / (n_classes * np.bincount(y)),n_samples為樣本數,n_classes為類別數量,np.bincount(y)會輸出每個類的樣本數,例如y=[1,0,0,1,1],則np.bincount(y)=[2,3]

    那么class_weight有什么作用呢?在分類模型中,我們經常會遇到兩類問題:

    第一種是誤分類的代價很高。比如對合法用戶和非法用戶進行分類,將非法用戶分類為合法用戶的代價很高,我們寧願將合法用戶分類為非法用戶,這時可以人工再甄別,但是卻不願將非法用戶分類為合法用戶。這時,我們可以適當提高非法用戶的權重。

    第二種是樣本是高度失衡的,比如我們有合法用戶和非法用戶的二元樣本數據10000條,里面合法用戶有9995條,非法用戶只有5條,如果我們不考慮權重,則我們可以將所有的測試集都預測為合法用戶,這樣預測准確率理論上有99.95%,但是卻沒有任何意義。這時,我們可以選擇balanced,讓類庫自動提高非法用戶樣本的權重。

    提高了某種分類的權重,相比不考慮權重,會有更多的樣本分類划分到高權重的類別,從而可以解決上面兩類問題。

    當然,對於第二種樣本失衡的情況,我們還可以考慮用下一節講到的樣本權重參數: sample_weight,而不使用class_weight。sample_weight在下一節講。

6. 樣本權重參數: sample_weight
    上一節我們提到了樣本不失衡的問題,由於樣本不平衡,導致樣本不是總體樣本的無偏估計,從而可能導致我們的模型預測能力下降。遇到這種情況,我們可以通過調節樣本權重來嘗試解決這個問題。調節樣本權重的方法有兩種,第一種是在class_weight使用balanced。第二種是在調用fit函數時,通過sample_weight來自己調節每個樣本權重。

    在scikit-learn做邏輯回歸時,如果上面兩種方法都用到了,那么樣本的真正權重是class_weight*sample_weight.

    以上就是scikit-learn中邏輯回歸類庫調參的一個小結,還有些參數比如正則化參數C(交叉驗證就是 Cs),迭代次數max_iter等,由於和其它的算法類庫並沒有特別不同,這里不多累述了。



原文鏈接:https://blog.csdn.net/liulina603/article/details/78676723


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM