偏差和方差
在學習Ridge和Lasso之前,我們先看一下偏差和方差的概念。

嶺回歸(Ridge)
針對高方差,即過擬合的模型,解決辦法之一就是對模型進行正則化:限制參數大小(由於本篇博客所提到的嶺回歸和Lasso都是正則化的特征選擇方法,所以對於其他解決過擬合的方法不多贅述)當線性回歸過擬合時,權重系數wj就會非常的大,嶺回歸就是要解決這樣的問題。嶺回歸(Ridge Regression)可以理解為在線性回歸的損失函數的基礎上,加,入一個L2正則項,來限制W不要過大。其中λ>0,通過確定λ的值可以使得模型在偏差和方差之間達到平衡,隨着λ的增大,模型的方差減小,偏差增大。
我們可以像線性回歸一樣,利用最小二乘法求解嶺回歸模型的參數,對W求導,令倒數等於0,可求得W的解析解,其中I為m x m的單位矩陣,所以也可以說嶺回歸就是在矩陣X^TX上加一個λI使得矩陣非奇異,進而能對XTX+λI求逆:
套索回歸(Lasso)
Lasso回歸和嶺回歸類似,不同的是,Lasso可以理解為在線性回歸基礎上加入一個L1正則項,同樣來限制W不要過大。其中λ>0,通過確定λ的值可以使得模型在偏差和方差之間達到平衡,隨着λ的增大,模型的方差減小,偏差增大。
Lasso趨向於使得一部分w值變為0,所以可以作為特征選擇用,因為這里的L1正則項並不是處處可導的,所以並不能直接使用基於梯度的方法優化損失函數,若要從底層實現,可以使用擬牛頓法的BFGS算法,逐步向前回歸,我這里直接用sklearn封裝的Lasso,請參見
總結

轉載於:https://blog.csdn.net/Joker_sir5/article/details/82756089
原作者:Joker_sir5