監督學習與非監督學習的區別


以下是摘抄自知乎上對監督學習與非監督學習的總結,覺得寫得很形象,於是記下:

這個問題可以回答得很簡單:是否有監督(supervised),就看輸入數據是否有標簽(label)。輸入數據有標簽,則為有監督學習,沒標簽則為無監督學習

首 先看什么是學習(learning)?一個成語就可概括:舉一反三。此處以高考為例,高考的題目在上考場前我們未必做過,但在高中三年我們做過很多很多題 目,懂解題方法,因此考場上面對陌生問題也可以算出答案。機器學習的思路也類似:我們能不能利用一些訓練數據(已經做過的題),使機器能夠利用它們(解題 方法)分析未知數據(高考的題目)?

最簡單也最普遍的一類機器學習算法就是分類(classification)。對於分類,輸入的訓練 數據有特征(feature),有標簽(label)。所謂的學習,其本質就是找到特征和標簽間的關系(mapping)。這樣當有特征而無標簽的未知數 據輸入時,我們就可以通過已有的關系得到未知數據標簽。

在上述的分類過程中,如果所有訓練數據都有標簽,則為有監督學習(supervised learning)。如果數據沒有標簽,顯然就是無監督學習(unsupervised learning)了,也即聚類(clustering)。

(但有監督學習並非全是分類,還有回歸(regression),此處不細說。(哇擦,貴圈太亂,逼着我用了這么多括號))

目 前分類算法的效果普遍還是不錯的,相對來講,聚類算法就有些慘不忍睹了。確實,無監督學習本身的特點使其難以得到如分類一樣近乎完美的結果。這也正如我們在高中做題,答案(標簽)是非常重要的,假設兩個完 全相同的人進入高中,一個正常學習,另一人做的所有題目都沒有答案,那么想必第一個人高考會發揮更好,第二個人會發瘋。

這時各位可能要 問,既然分類如此之好,聚類如此之不靠譜,那為何我們還可以容忍聚類的存在?因為在實際應用中,標簽 的獲取常常需要極大的人工工作量,有時甚至非常困難。例如在自然語言處理(NLP)中,Penn Chinese Treebank在2年里只完成了4000句話的標簽……


這 時有人可能會想,難道有監督學習和無監督學習就是非黑即白的關系嗎?有沒有灰呢?Good idea。灰是存在的。二者的中間帶就是半監督學習(semi-supervised learning)。對於半監督學習,其訓練數據的一部分是有標簽的,另一部分沒有標簽,而沒標簽數據的數量常常極大於有標簽數據數量(這也是符合現實情 況的)。隱藏在半監督學習下的基本規律在於:數據的分布必然不是完全隨機的,通過一些有標簽數據的局部特征,以及更多沒標簽數據的整體分布,就可以得到可 以接受甚至是非常好的分類結果。(此處大量忽略細節:

因此,learning家族的整體構造是這樣的:
有監督學習(分類,回歸)

半監督學習(分類,回歸),transductive learning(不懂怎么翻譯,直推式學習?)(分類,回歸)

半監督聚類(有標簽數據的標簽不是確定的,類似於:肯定不是xxx,很可能是yyy)

無監督學習(聚類)


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM