前言: 以下內容是個人學習之后的感悟,轉載請注明出處~
總結: 回歸屬於監督學習的一種的方法, 從連續的數據中得到模型,然后將該數據模型進行預測或者分類.
線性回歸模型
把數據通過畫圖畫出來,如果是下面這樣的,那么他就適合於線性回歸 ,
這組數據不屬於正態分布,
但用線性回歸的話,就可以很好的進行擬合,如果用多項式回歸的話,那么擬合度會很差.
畫一個擬合曲線觀察一下,還是比較擬合的
可以查看這兩張圖片,經過線性回歸之后,第一張是沒有處理的,第二張是處理后..觀察發生了什么變化

多項式回歸模型
根據數據的發展趨勢來進行來決定,當太過於復雜時,那么多項式回歸就不在適合於處理這組數據.
多項式回歸模型一般都是處理正態分布的數據,
多項式回歸的代碼比線性回歸的就多了一行
polynomial=PolynomialFeatures(degree=2) # 構建多項式回歸器對象 # degree是多項式的次數,此處初步的設置為2
如果他是這種數據的話,那么多項式回歸就適合處理這組數據

畫一個擬合曲線,看一下他與這組數據的擬合程度
很顯然,擬合程度很高
可以觀察這兩張圖片,經過多項式回歸之后,第一張是沒有處理的,第二張是處理后..觀察發生了什么變化
周五一個讀者問我怎么在圖中添加異常點 , 我在這篇中帶着解釋一下
# 以下加入兩個異常點,再用線性回歸器進行擬合
abnormal_x=[16.5,17.9]
abnormal_y=[25.98,24.12]
print('x with abnormal point: {}'.format(x)) print('y with abnormal point: {}'.format(y))
# 將異常點繪制出來 plt.scatter(abnormal_x,abnormal_y,marker='x',label='abnormal')
沒有添加異常點之前

添加異常點之后,那兩個藍色的點就是異常點