多重共線性檢驗-方差膨脹系數(VIF)-相關系數(機器學習)sklearn


@


✌ 多重共線性檢驗-方差膨脹系數(VIF)

1、✌ 原理:

方差膨脹系數是衡量多元線性回歸模型中多重共線性嚴重程度的一種度量。
它表示回歸系數估計量的方差與假設自變量間不線性相關時方差相比的比值。

2、✌ 多重共線性:

是指各特征之間存在線性相關關系,即一個特征可以是其他一個或幾個特征的線性組合。如果存在多重共線性,求損失函數時矩陣會不可逆,導致求出結果會與實際不同,有所偏差。

例如:

x1=[1,2,3,4,5]
x2=[2,4,6,8,10]
x3=[2,3,4,5,6]
# x2=x1*2
# x3=x1+1

上述x2,x3都和x1成線性關系,這會進行回歸時,影響系數的准確性,說白了就是多個特征存在線性關系,數據冗余,但不完全是,所以要將成線性關系的特征進行降維

3、✌ 檢驗方法:

✌ 方差膨脹系數(VIF):

通常情況下,當VIF<10,說明不存在多重共線性;當10<=VIF<100,存在較強的多重共線性,當VIF>=100,存在嚴重多重共線性

# 導入計算膨脹因子的庫
from statsmodels.stats.outliers_influence import variance_inflation_factor 
# get_loc(i) 返回對應列名所在的索引
vif=[variance_inflation_factor(x.values,x.columns.get_loc(i)) for i in x.columns]
list(zip(list(range(1,21)),vif))

✌ 相關性檢驗:

這個就不舉例子,很容易的

import pandas as pd
data=pd.DataFrame([[3,4],[4,5],[1,2]])
data.corr()

4、✌ 代碼測試

說明:由於只是介紹多重相關性,所以建模的參數都為默認,只是基本結構

4.1 ✌ 導入相關庫

# 畫圖
import seaborn as sns
# 制作數據集
from sklearn.datasets import make_blobs
# VIF膨脹因子
from statsmodels.stats.outliers_influence import variance_inflation_factor
# 分割數據集
from sklearn.model_selection import train_test_split
# 邏輯回歸
from sklearn.linear_model import LogisticRegression
# AUC和准確度
from sklearn.metrics import accuracy_score
from sklearn.metrics import roc_auc_score

import pandas as pd
import numpy as np
import matplotlib.pyplot as plt

4.2 ✌ 准備數據

在這里插入圖片描述

data=pd.read_excel('股票客戶流失'.xlsx)
# 提取特征矩陣和標簽
x=data.drop(columns=['是否流失'])
y=data['是否流失']

4.3 ✌ 計算膨脹因子

在這里插入圖片描述

vif=[variance_inflation_factor(x.values,x.columns.get_loc(i)) for i in x.columns]
list(zip(list(range(1,21)),vif))

4.4 ✌ 計算相關系數

在這里插入圖片描述

x.corr()
# 可以畫出熱力圖進行展示
plt.subplots(figsize=(20,16))
ax=sns.heatmap(x.corr(),vmax=1,square=True,annot=True)

在這里插入圖片描述

4.5 ✌ 分割測試集

x_train,x_test,y_train,y_test=train_test_split(x,
                                               y,test_size=0.2,
                                               random_state=2021
                                               )

4.6 ✌ 模型選擇

clf=LogisticRegression(max_iter=300)
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
accuracy_score(y_test,y_pred)

在這里插入圖片描述

4.7 ✌ AUC值

roc_auc_score(y_test,clf.predict_proba(x_test)[:,1])

在這里插入圖片描述

4.8 ✌ 模型調整

由上述VIF值可以看出 累計交易佣金和賬戶資金有較強的多重相關性,所以考慮刪除二者中的某個特征進行建模,我們分別刪除兩個特征進行對比

4.8.1 ✌ 刪除 賬戶資金

x=x.drop(columns=['賬戶資金(元)'])
x=pd.DataFrame(x)
y=y
vif=[variance_inflation_factor(x.values,x.columns.get_loc(i)) for i in x.columns]
vif

在這里插入圖片描述

x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=2021)
clf=LogisticRegression(max_iter=300)
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
accuracy_score(y_test,y_pred)

在這里插入圖片描述

roc_auc_score(y_test,clf.predict_proba(x_test)[:,1])

在這里插入圖片描述

4.8.2 ✌ 刪除 累計交易佣金

x=x.drop(columns=['累計交易佣金(元)'])
x=pd.DataFrame(x)
y=y
vif=[variance_inflation_factor(x.values,x.columns.get_loc(i)) for i in x.columns]
vif

在這里插入圖片描述

x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=2021)
clf=LogisticRegression(max_iter=300)
clf.fit(x_train,y_train)
y_pred=clf.predict(x_test)
accuracy_score(y_test,y_pred)

在這里插入圖片描述

roc_auc_score(y_test,clf.predict_proba(x_test)[:,1])

在這里插入圖片描述

5、✌ 總結

Score AUC面積
原始特征 0.7806 0.8194
刪除賬戶資金 0.7821 0.8149
刪除累計交易佣金 0.7586 0.7272
  • 我們可以看出當我們刪除賬戶資金這列特征時,分數有所上升,而AUC值下降了一點,不過影響不大,那么刪除了共線性的特征是對我們模型的准確性是有作用的
  • 但是我們發現刪除累計交易佣金這列特征時,准確性反倒有所下降,這是為什么?不是刪除共線性的特征對模型有幫助嗎,這時我們就會想可能是累計交易佣金這列特征所包含的信息較多,貿然刪除的化,可能會導致模型擬合不足(欠擬合)
  • 而賬戶資金和累計交易時相關的,可以理解為賬戶資金的信息依靠累計交易,類似於數學里面的子集這種(不過這種理解是錯誤的),就是兩列數據存在強烈的相關性,但累計交易佣金這列數據包含的數據相對於賬戶資金這列數據對模型的貢獻比較高


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM