經典監督學習方法


生成算法嘗試去找這個數據到底是怎么生成的(產生的),然后再對一個信號進行分類。基於你的生成假設,哪個類別最有可能產生這個信號,這個信號就屬於那個類別。

判別模型不關心數據是怎么生成的,它只關心信號之間的差別,然后模型學習到差別之后簡單地對給定的一個信號進行分類。

 

在機器學習中,無監督學習(Unsupervised learning)最典型的就是聚類,事先不知道樣本的類別,通過某種辦法,把相似的樣本放在一起歸位一類;而監督學習(Supervised learning)就是有訓練樣本,帶有屬性標簽,也可以理解成樣本有輸入有輸出,意味着輸入和輸出之間有一個關系,監督學習算法就是要發現和總結這種“關系”。

以下是一些常用的監督型學習方法:

一. K-近鄰算法(k-Nearest Neighbors,KNN)

算法的步驟為:

(1)計算測試數據與各個訓練數據之間的距離;

(2)按照距離的遞增關系進行排序;

(3)選取距離最小的K個點;

(4)確定前K個點所在類別的出現頻率;

(5)返回前K個點中出現頻率最高的類別作為測試數據的預測分類。

二. 決策樹(Decision Trees)

決策樹是一個樹結構(可以是二叉樹或非二叉樹)。其每個非葉節點表示一個特征屬性上的測試,每個分支代表這個特征屬性在某個值域上的輸出,而每個葉節點存放一個類別。使用決策樹進行決策的過程就是從根節點開始,測試待分類項中相應的特征屬性,並按照其值選擇輸出分支,直到到達葉子節點,將葉子節點存放的類別作為決策結果。

相比貝葉斯算法,決策樹的優勢在於構造過程不需要任何領域知識或參數設置。

構造決策樹的關鍵步驟是分裂屬性。所謂分裂屬性就是在某個節點處按照某一特征屬性的不同划分構造不同的分支,其目標是讓各個分裂子集盡可能地“純”。盡可能“純”就是盡量讓一個分裂子集中待分類項屬於同一類別。分裂屬性分為三種不同的情況:
1、屬性是離散值且不要求生成二叉決策樹。此時用屬性的每一個划分作為一個分支。
2、屬性是離散值且要求生成二叉決策樹。此時使用屬性划分的一個子集進行測試,按照“屬於此子集”和“不屬於此子集”分成兩個分支。
3、屬性是連續值。此時確定一個值作為分裂點split_point,按照 >split_point 和 <=split_point 生成兩個分支。

構造決策樹的關鍵性內容是進行屬性選擇度量,屬性選擇度量算法有很多,這里介紹ID3和C4.5兩種常用算法。

(1) ID3算法

從信息論知識中我們直到,期望信息越小,信息增益越大,從而純度越高。所以ID3算法的核心思想就是以信息增益度量屬性選擇,選擇分裂后信息增益最大的屬性進行分裂。

熵(entropy)是描述信息不確定性(雜亂程度)的一個值。設S是用類別對訓練元組進行的划分,那么S的信息熵的定義如下:

其中,n是類別的數目,p(xi)表示選擇xi類別的概率(可用類別數量除以總數量估計)。

現在我們假設將S按屬性A進行划分,則S的條件信息熵(也就是A對S划分的期望信息)為:

 

其中,屬性A擁有m個類別(例如,屬性A是體重,有輕、中、重三個選項,那么m=3),p(tj)表示類別tj(屬性A中所有具有第j個特性的所有數據)的數量與S總數量的比值,H(tj)表示子類別tj的熵,即S中擁有屬性tj的子元組划分的熵。

而信息增益(Information gain)即為兩者的差值:

ID3算法就是在每次需要分裂時,計算每個屬性的增益率,然后選擇增益率最大的屬性進行分裂。如此迭代,直至結束。這里有一個ID3算法的實例過程

對於特征屬性為離散值,可以直接使用ID3算法進行划分。對於特征屬性為連續值,可以如此使用ID3算法:
先將D中元素按照特征屬性排序,則每兩個相鄰元素的中間點可以看做潛在分裂點,從第一個潛在分裂點開始,分裂D並計算兩個集合的期望信息,具有最小期望信息的點稱為這個屬性的最佳分裂點,其信息期望作為此屬性的信息期望。

(2) C4.5算法

ID3算法存在一個問題,就是偏向於多值屬性,例如,如果存在唯一標識屬性ID,則ID3會選擇它作為分裂屬性,這樣雖然使得划分充分純凈,但這種划分對分類幾乎毫無用處。ID3的后繼算法C4.5使用增益率(gain ratio)的信息增益擴充,試圖克服這個偏倚。嚴格上說C4.5是ID3的一個改進算法。

C4.5首先定義了分裂信息(Split Information):

  

其中各符號意義與ID3算法相同,然后,增益率(Gain Ratio)被定義為:

  

C4.5選擇具有最大增益率的屬性作為分裂屬性(連續屬性要用增益率離散化)。C4.5算法有如下優點:產生的分類規則易於理解,准確率較高。其缺點是:在構造樹的過程中,需要對數據集進行多次的順序掃描和排序,因而導致算法的低效。此外,C4.5只適合於能夠駐留於內存的數據集,當訓練集大得無法在內存容納時程序無法運行。

 

在決策樹構造過程中,如果所有屬性都作為分裂屬性用光了,但有的子集還不是純凈集,即集合內的元素不屬於同一類別。在這種情況下,由於沒有更多信息可以使用了,一般對這些子集進行“多數表決”,即使用此子集中出現次數最多的類別作為此節點類別,然后將此節點作為葉子節點。

在實際構造決策樹時,通常要進行剪枝,這是為了處理由於數據中的噪聲和離群點導致的過分擬合問題。剪枝有兩種:先剪枝——在構造過程中,當某個節點滿足剪枝條件,則直接停止此分支的構造;后剪枝——先構造完成完整的決策樹,再通過某些條件遍歷樹進行剪枝。悲觀錯誤剪枝PEP算法是一種常見的事后剪枝策略。

三. 朴素貝葉斯(Naive Bayesian)

貝葉斯分類是一系列分類算法的總稱,這類算法均以貝葉斯定理為基礎,故統稱為貝葉斯分類。朴素貝葉斯算法(Naive Bayesian) 是其中應用最為廣泛的分類算法之一。朴素貝葉斯分類器基於一個簡單的假定:給定目標值時屬性之間相互條件獨立。朴素貝葉斯的基本思想是對於給出的待分類項,求解在此項出現的條件下各個類別出現的概率,哪個最大,就認為此待分類項屬於哪個類別。

首先給出條件概率的定義,P(A | B)表示事件A在B發生下的條件概率,其公式為:

  

貝葉斯定理用來描述兩個條件概率之間的關系,貝葉斯定理公式為:

  

朴素貝葉斯分類算法的具體步驟如下:

(1)設x = {a1,a2,...,am}為一個待分類項,a1,a2,...,am為x的m個特征屬性;

(2)設有類別集合C = {y1,y2,...,yn},即共有n個類別;

(3)依次計算x屬於各項分類的條件概率,即計算P(y1 | x),P(y2 | x),… ,P(yn | x):

注意,算法的下一步驟是對比這些結果的大小,由於各項分母都是P(x),所以分母不用計算。分子部分中P(yn)和P(ai | yn)都是通過樣本集統計而得,其中P(yn)的值為樣本集中屬於yn類的數量與樣本總數量之比,P(ai∥yn)的值為yn類中滿足屬性ai的數量與yn類下樣本總數量之比。

這樣的計算方式符合特征屬性是離散值的情況,如果特征屬性是連續值時,通常假定其值服從高斯分布(也稱正態分布),高斯分布即:

   

那么P(ai | yn)的值為:

  

其中,ηyn 和 σyn 分別為訓練樣本yn類別中ai屬性項對應的高斯分布的均值和標准差。

對於P(a | y)=0的情況,當某個類別下某個屬性項划分沒有出現時,就是產生這種現象,這會令分類器質量大大降低。因此引入Laplace校准,對每個類別下所有屬性划分的計數加1,這樣如果訓練樣本集數量充分大時,並不會對結果產生影響,也避免了乘積為0的情況。

(4)比較(3)中所有條件概率的大小,最大的即為預測分類結果,即:

四. 邏輯回歸(Logistic Regression)

我們知道,線性回歸就是根據已知數據集求一線性函數,使其盡可能擬合數據,讓損失函數最小,常用的線性回歸最優法有最小二乘法和梯度下降法。而邏輯回歸是一種非線性回歸模型,相比於線性回歸,它多了一個sigmoid函數(或稱為Logistic函數)。邏輯回歸是一種分類算法,主要用於二分類問題。

對於線性回歸,損失函數是歐式距離指標,但這樣的Cost Function對於邏輯回歸是不可行的,因為在邏輯回歸中平方差損失函數是非凸,我們需要其他形式的Cost Function來保證邏輯回歸的成本函數是凸函數。我們選擇交叉熵損失函數。

與線性回歸相似,可以采用梯度下降法尋優,也可以采用其他方法。

 

題外話,對數似然函數與交叉熵損失函數的聯系:

對數似然函數:

交叉熵損失函數:

x 表示原始信號,z 表示重構信號。(損失函數的目標是最小化,似然函數的目標則是最大化,二者僅相差一個負號)。

 

https://blog.csdn.net/zxrttcsdn/article/details/79641054

https://www.leiphone.com/news/201704/w6SbD8XGrvQ9IQTB.html

https://www.cnblogs.com/leoo2sk/archive/2010/09/19/decision-tree.html

https://blog.csdn.net/lanchunhui/article/details/75433608


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM