线性回归Python底层实现
一、实现目标
1.了解最优线性回归模型参数的解析解的求解过程
2.帮助大家加深线性回归模型的基本求解原理
3.掌握通过一个简单的工具包调用过程帮助大家掌握快速实现线性回归模型的方法。
二、案例内容介绍
线性回归是极其学习中最基本的模型,用来拟合自变量和因变量之间呈现线性关系的数据,当自变量只有一个时我们称使用的回归模型是一元线性回归模型,
当自变量有多个时称使用的回归模型是多元线性回归模型。根据已知数据,求解线性回归模型的参数最常用到的方法是最小二乘法,求解使得损失函数取得最小值的模型参数的解 析解或者使用梯度下降算法求得最优的模型参数。
三、理论熟悉网址:
一元线性回归原理及python简单实现
参考网址:https://blog.csdn.net/u011208984/article/details/107645460
四、实验步骤
数据集说明:本本实验使用的是构造的数据集,数据构造的过程在代码中有明确显示。
---------------------------------------------------------------------------------------------------------------------
1、一元线性回归Python底层实现
# 一元线性回归的实现
# 导入matplotlib库,主要用于可视化
import numpy as np
from matplotlib.font_manager import FontProperties
import matplotlib.pyplot as plt
%matplotlib inline
# 引入本地字体文件,否则中文会有乱码
# font_set = FontProperties(fname=r"./work/ simsun.ttc", size=12)
# 构造用于训练的数据集
x_train = [4, 8, 5, 10, 12]
y_train = [20, 50, 30, 70, 60]
# 画图函数
def draw(x_train, y_train):
plt.scatter(x_train, y_train)
# 定义函数求得斜率w和截距b
# 使用最小二乘法对斜率和截距求导并使得导数值等于0求解出斜率和截距
def fit(x_train, y_train):
size = len(x_train)
numerator = 0 # 初始化分子
denominator = 0 # 初始化分母
for i in range(size):
numerator += (x_train[i] - np.mean(x_train)) * \
(y_train[i] - np.mean(y_train))
denominator += (x_train[i] - np.mean(x_train)) ** 2
w = numerator / denominator
b = np.mean(y_train) - w * np.mean(x_train)
return w, b
# 根据斜率w和截距b,输入x计算输出值
def predict(x, w, b):
# 预测模型
y = w * x + b
return y
# 根据W,B画图
def fit_line(w, b):
# 测试集进行测试,并作图
# linspace 创建等差数列的函数 #numpy.limspace(start,stop,num,endpoint=True,retstep=False,dtype=None,axis=0#)
x = np.linspace(4, 15, 9)
y = w * x + b
plt.plot(x, y)
plt.show()
if __name__ == "__main__":
draw(x_train, y_train)
w, b = fit(x_train, y_train)
print(w, b) # 输出斜率和截距
fit_line(w, b) # 绘制预测函数图像