https://blog.csdn.net/qq_31852975/article/details/72354578
多項式擬合與線性回歸
多項式擬合
設M次多項式為 f
當損失函數為L
時,通過解L(w)最小的問題,可以擬合出該多項式。
這個問題在《統計學習方法》李航的第一章中介紹。 不過其中1.18帶入后的結果不正確。
具體錯誤見勘誤表http://www.hangli-hl.com/uploads/3/4/4/6/34465961/errata.pdf
具體推導過程http://blog.csdn.net/xiaolewennofollow/article/details/46757657
這里的多項表達式中,f是關於x的一個函數,式中只有一個變量x。
線性回歸
線性回歸假設特征與結果滿足線性關系。這里為什么可以假設為線性關系?為什么可以假設數據是獨立同分布的
- 線性關系是用來假定樣本集X,Y之間的關系,有了這個關系才可以繼續推導出模型的參數向量θ
- 監督學習假設X,Y滿足聯合概率分布P(X,Y)。訓練數據與測試數據被看做是依聯合概率分布獨立同分布的。
- 統計學習假定數據存在一定的規律,進而對模型進行學習,但是對於系統具體的定義是未知的。
這里使用Andrew Ng講義中的公式定義。
對於n個特征的特征向量
hθ
這里同樣用平方損失函數
J
J最小越小,擬合的直線就越接近樣本。具體解釋見Andrew Ng公開課。通過兩種方式來求解θ。
梯度下降( LMS algorithm)
而使得 J
下降最快的方向為 J對 θ
求偏導數的反方向。
這里為什么是反方向是梯度下降最小的方向?
- 因為梯度方向為函數增長最快的方向,所以J
- 的最小值則為減法。
對於每一個特征x,對J
求偏導。
∂∂θ
那么對於所有的樣本,通過如下的方式得到特征向量θ。
遍歷n個樣本 直至收斂
θ
這樣做的消耗是多少,如何優化為隨機梯度下降?
- θ