基本形式
優點:線性模型形式簡單、易於建模。
很多非線性模型是在線性模型的基礎上通過引入層級結構或高維映射得到的。
權重矩陣直觀表達了各個屬性的重要性,因此具有良好解釋性。
線性回歸
1、線性回歸介紹與離散屬性轉換為實數值
線性回歸(linear regeression)試圖學習一個線性模型以盡可能准確預測實值輸出標記。
對於預測值本來就是實數值的數據還好說,對於離散屬性,其離散值轉化為實數值有兩種方法:第一種,若屬性存在“序”的關系,可通過連續化進行轉換(例如身高取值“高”“矮”,就可以轉化為“1.0”“0.0”);第二種,若屬性沒有序的關系,可以轉化為k維向量(例如“西瓜”“南瓜”,可以轉化為{1,0}{0,1})。
2、線性模型學習策略
3、線性模型學習算法
先舉一個單屬性的例子:
再舉更為一般的例子,也就是多元線性回歸:
4、廣義線性模型
注意(以下是個人理解):廣義線性模型和后續介紹的廣義線性判別分析(函數)殊途同歸,都是利用線性判別分析進行擴展,解決非線性問題,但從形式上老說,不像是一回事。
對數幾率回歸
1、引言
上述討論的都是回歸問題,如果用線性判別模型進行分類學習,就需要將實數值轉化為離散值。
利用廣義線性模型,我們易知最理想的函數是“單位階躍函數”,但是它不連續,無法適用於g-1(·)。因此我們找了個替代品,即對數幾率函數(logistic function)(是一種sigmoid函數,還是其最重要的代表):
因此雖然對應模型名稱“對數幾率回歸”,但是其實是一種分類方法。
2、學習策略與學習方法
移步我的另一篇博客:https://www.cnblogs.com/CJT-blog/p/10135077.html
線性判別分析
1、引言
線性判別分析(Linear Discriminant Analysis,LDA)是一種經典的線性學習方法,亦稱“Fisher判別分析”。
2、模型、學習策略與學習方法
請移步我的另一篇博客:https://www.cnblogs.com/CJT-blog/p/10187720.html
廣義線性判別分析
1、引言
2、廣義線性判別函數
3、特例——線性判別函數的齊次簡化