線性回歸是機器學習的基礎,用處非常廣泛,在日常工作中有很大作用。
1.什么是線性回歸

通過多次取點,找出符合函數的曲線,那么就可以完成一維線性回歸。
2.數學表示

是截距值,為偏移量。
因為單純計算多項式需要很大空間,所以就需要將式子變形,轉化為矩陣乘積形式。

3.最小二乘法模型
首先定義一個函數L來表示損失函數(通過已有的X,Y數據來計算)


4.梯度下降
直接運算缺點:運算性能不足。
所以選擇梯度下降法。

線性回歸是機器學習的基礎,用處非常廣泛,在日常工作中有很大作用。
1.什么是線性回歸

通過多次取點,找出符合函數的曲線,那么就可以完成一維線性回歸。
2.數學表示

是截距值,為偏移量。
因為單純計算多項式需要很大空間,所以就需要將式子變形,轉化為矩陣乘積形式。

3.最小二乘法模型
首先定義一個函數L來表示損失函數(通過已有的X,Y數據來計算)


4.梯度下降
直接運算缺點:運算性能不足。
所以選擇梯度下降法。

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。