sklearn實現非線性回歸模型的本質是通過線性模型實現非線性模型,如何實現呢?sklearn就是先將非線性模型轉換為線性模型,再利用線性模型的算法進行訓練模型。
一、線性模型解決非線性模型的思想
1、樣本數據如下
x |
y |
1 |
45000 |
2 |
50000 |
3 |
60000 |
4 |
80000 |
5 |
110000 |
6 |
150000 |
7 |
200000 |
8 |
300000 |
9 |
500000 |
10 |
1000000 |
2、假設樣本數據符合線性模型 y = a0 + a1x,則可以直接利用sklearn的線性回歸模型方法訓練該模型
3、原理:
假設樣本數據符合非線性模型 y = a0x0 + a1x1 + a2x2 + a3x3 ,(其中x0=1)那么我們如何將該非線性模型轉為線性模型呢?sklearn的解釋思路是從樣本數據中的自變量下手的,它首先通過計算將樣本數據修改為下表
x0 x1 x2 x3 y
[[ 1. 1. 1. 1.]
[ 1. 2. 4. 8.]
[ 1. 3. 9. 27.]
[ 1. 4. 16. 64.]
[ 1. 5. 25. 125.]
[ 1. 6. 36. 216.]
[ 1. 7. 49. 343.]
[ 1. 8. 64. 512.]
[ 1. 9. 81. 729.]
[ 1. 10. 100. 1000.]]
4、根據上面的樣本數據,也就把 y = a0x0 + a1x1 + a2x2 + a3x3 ^非線性回歸模型轉換為了y = a0x0 + a01x1 + a2x2 + a3x3的線性回歸模型了,這樣就可以利用sklearn的線性回歸模型算法進行訓練非線性回歸模型了
二、具體實現代碼如下
1 import numpy as np 2 import matplotlib.pyplot as plt 3 from sklearn.preprocessing import PolynomialFeatures 4 from sklearn.linear_model import LinearRegression 5 6 # 讀取數據 7 data = np.genfromtxt('job.csv', delimiter=',') 8 x_data = data[1:, 1] 9 y_data = data[1:, 2] 10 11 # 一維數據通過增加維度轉為二維數據 12 x_2data = x_data[:, np.newaxis] 13 y_2data = data[1:, 2, np.newaxis] 14 15 # 訓練一元線性模型 16 model = LinearRegression() 17 model.fit(x_2data, y_2data) 18 19 plt.plot(x_2data, y_2data, 'b.') 20 plt.plot(x_2data, model.predict(x_2data), 'r') 21 22 # 定義多項式回歸:其本質是將變量x,根據degree的值轉換為相應的多項式(非線性回歸),eg: degree=3,則回歸模型 23 # 變為 y = theta0 + theta1 * x + theta2 * x^2 + theta3 * x^3 24 poly_reg = PolynomialFeatures(degree=3) 25 # 特征處理 26 x_ploy = poly_reg.fit_transform(x_2data) # 這個方法實質是把非線性的模型轉為線性模型進行處理, 27 # 處理方法就是把多項式每項的樣本數據根據冪次數計算出相應的樣本值 29 # 訓練線性模型(其本質是非線性模型,是由非線性模型轉換而來) 30 lin_reg_model = LinearRegression() 31 lin_reg_model.fit(x_ploy, y_2data) 32 33 plt.plot(x_2data, y_2data, 'b.') 34 plt.plot(x_2data, lin_reg_model.predict(x_ploy), 'r') 35 36 plt.show()
實現參考自博客https://blog.csdn.net/qq_34720818/article/details/103349452
三、實現結果