大類 |
名稱 |
關鍵詞 |
有監督分類 |
||
Gini指數,Χ2統計量,剪枝 |
||
非參數估計,貝葉斯估計 |
||
Fishre判別,特征向量求解 |
||
相似度度量:歐氏距離、街區距離、編輯距離、向量夾角、Pearson相關系數 |
||
邏輯斯諦回歸(二值分類) |
參數估計(極大似然估計)、S型函數 |
|
非參數估計、正則化理論、S型函數 |
||
一個輸出層細胞跟幾個競爭層細胞相連 |
||
S型函數、梯度下降法 |
||
支持向量機(二值分類) |
二次規化,Lagrange乘數法,對偶問題,最優化,序列最小優化,核技巧 |
|
單層感知器 |
只具有線性可分的能力 |
|
雙隱藏層感知器 |
足以解決任何復雜的分類問題 |
|
無監督分類 |
質心 |
|
圖划分,相對互連度,相對緊密度 |
||
B樹,CF三元組 |
||
核心點,密度可達 |
||
參數估計(極大似然估計) |
||
圖划分,奇異值求解 。全局收斂 |
||
無導師的競爭學習 |
||
一般線性回歸 |
參數估計,最小二乘法,一般不用於分類而用於預測 |
|
邏輯斯諦回歸(二值分類) |
參數估計(極大似然估計),S型函數 |
|
關聯規則挖掘 |
頻繁1項集,FP-Tree,條件模式基,后綴模式 |
|
降維 |
協方差矩陣,奇異值分解 |
|
推薦 |
稀疏向量的相似度度量 |
方法細分 |
應用場所 |
||||
參數估計 |
極大似然估計 |
線性回歸。假設誤差滿足均值為0的正態分布,從而轉化為最小二乘法 |
|||
Logistic回歸。梯度下降迭代法求似然函數的極值 |
|||||
高斯混合模型。 |
|||||
非參數估計 |
|
徑向基函數網絡 |
|||
無參數假設檢驗 |
χ2檢驗 |
特征詞選取,分類回歸樹的終止條件 |
|||
秩和檢驗 |
|
||||
Pearson相關系數(假設x,y成對地從正態分布中取得) |
基於向量空間模型的文本分類,用戶喜好推薦系統 |
||||
Spearman秩相關系數(無參數假設檢驗) |
|
||||
最優化方法 |
梯度下降法 |
極大似然估計(回歸分析、GMM) 支持向量機 線性判別分析 |
|||
牛頓迭代法及其變種 |
|||||
有約束時通過Lagrange乘數法轉換成無約束問題 |
|||||
求特征值/特征向量 |
線性判別分析 |
降維 |
|||
奇異值分解(僅針對對稱矩陣) |
主成分分析 |
||||
譜聚類 |
|||||
信息增益 |
特征詞選擇 |
||||
決策樹 |
|||||
互信息 |
特征詞選擇 |
||||
交叉熵 |
特征詞選擇,稀有事件建模仿真,多峰最優化問題 |
||||
多項式核函數 |
SVM RBF網絡 |
||||
高斯核函數(徑向基函數) |
|||||
雙極性核函數 |
|||||
單極性Sigmoid函數 |
Logistic回歸 |
||||
BP神經網絡 |
|||||
協方差 |
Pearson相關系數 |
||||
PCA |
|||||
高斯混合模型 |
|||||
向前向后算法 |
|||||
基函數 |
高斯混合模型 |
||||
徑向基函數網絡 |
|||||
平滑算法 |
拉普拉斯平滑 |
貝葉斯分類 隱馬爾可夫模型 |
|||
Good-Turing平滑 |
|||||
隱馬爾可夫模型 |
|
||||
|
Cover定理指出:將復雜的模式分類問題非線性地映射到高維空間將比投影到低維空間更可能線性可分。 所以SVM和RBF網絡都試圖把樣本從低維空間映射到高維空間再進行分類。
好笑的是,另一些方法則是把輸入樣本從高維降到低維后再進行分類或回歸分析,如PCA、SOFM網絡、LDA、譜聚類,它們認為樣本在低維特征空間有更清晰的表達,更容易發現規律。