機器學習之線性模型


概念儲備: 

  (The least square method)和(least square error)
  狹義的最小二乘方法,是線性假設下的一種有閉式解的參數 求解方法,最終結果為全局最優;
  梯度下降法,是假設條件更為廣泛(無約束)的,一種通過迭代更新來逐步進行的參數 優化方法,最終結果為局部最優;
  廣義的最小二乘准則,是一種對於偏差程度的評估准則,與上兩者不同。
數值解(numerical solution)是在特定條件下通過近似計算得出來的一個數值,是采用某種計算方法,如有限元的方法, 數值逼近,插值的方法, 得到的解.別人只能利用數值計算的結果
解析解(analytical solution)就是給出解的具體函數形式,從解的表達式中就可以算出任何對應值,就是一些嚴格的公式,給出任意的自變量就可以求出其因變量,也就是問題的解, 他人可以利用這些公式計算各自的問題.所謂的解析解是一種包含分式、三角函數、指數、對數甚至無限級數等基本函數的解的形式。解析解為一封閉形式〈closed-form〉的函數,因此對任一獨立變量,帶入解析函數求得正確的相依變量。因此,解析解也被稱為閉式解(closed-form solution)

3.1基本形式

  對於給定d個屬性描述的示例x=(x1,x2,......,xd),通過屬性的線性組合來進行預測。一般的寫法如下:

  因此,線性模型具有很好的解釋性(understandability,comprehensibility),參數w代表每個屬性在回歸過程中的重要程度。

3.2 線性回歸

  對於線性回歸,我們先考慮簡單的問題,輸入的屬性數目只有一個。

    對於線性回歸而言,

  均方誤差有非常好的幾何意義,它對應了常用的歐幾里得距離(歐式距離),

  基於均方誤差最小化來進行模型求解的方法稱“最小二乘法”

  在求解時,我們考慮XTX可能不滿秩,因此將對應多個接都能使得均方誤差最小化,選擇哪個解作為輸出,將由學習算法的偏好決定,最常見的方法是引入正則化。

  廣義線性回歸,其中函數g(.)稱為“聯系函數”

3.3 對數幾率回歸(邏輯回歸)

  利用回歸來實現分類,只需要找到一個單調可微函數將分類任務的真實標記y與線性回歸模型的預測值聯系起來。我們利用對數幾率函數代替單位階躍函數,如下:

  對數幾率函數是一種“Sigmoid函數”,在神經網絡中扮演重要的作用。將輸出值轉化為接近0或者1的y值,

  然后將上面這式子進行變形

  若將y看做是樣本x作為正例的可能性,則1-y是其作為反例可能性,兩者之間的比值為y/1-y稱為幾率(odds),對幾率取對數則得到“對數幾率”。

  邏輯回歸不僅能夠能夠實現對任務進行分類,同時可以得到近似概率預測

  

  利用極大似然法(maximum likelihood method)進行估計w和b。

  

  上述的函數是關於B的高階可導函數,根據凸優化理論,經典的數值優化算法如梯度下降法(gradient descent method)、牛頓法(Newton method)可求得最優解。

  協方差矩陣計算的是不同維度之間的協方差,而不是不同樣本之間的。

 


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM