機器學習之常用算法


1、按照學習方式划分
      1.1 監督學習:輸入數據稱為“訓練數據”,每組訓練數據有一個明確的標識或結果。在建立模型的時候,監督學習建立一個學習過程,將預測結果與“訓練數據”的實際結果進行比較,不斷調整預測模型,直到模型的預測結果達到一個預期的標准。
      1.2 無監督學習:數據並沒有被特別標識,學習模型是為了推斷出數據的一些內在結構。
      1.3 半監督學習:輸入數據部分被標識,部分沒有被標識,這種學習模型可以用來預測。
      1.4 強化學習:輸入數據作為對模型的反饋,不像監督學習那樣,輸入數據僅僅是作為一個檢查模型對錯的方式,在強化學習下,輸入數據直接反饋到模型,模型必須對此立刻做出調整。


2、按照算法相似性划分
      2.1 回歸算法:研究自變量和因變量關系(最小二乘法、邏輯回歸)
      2.2 基於實例的算法:對決策問題建立模型,常常先取一批數據樣本,然后根據某些相似性把新數據與樣本數據進行比較,通過這種方法來尋找最佳匹配。(KNN、學習矢量量化)
      2.3 正則化方法:根據算法的復雜度對算法進行調整,常常對簡單模型予以獎勵,對復雜算法予以懲罰。(嶺回歸、套索方法)
      2.4 決策樹學習:根據數據的屬性采用樹狀結構建立決策模型,常用來解決分類和回歸問題。(分類及回歸樹、ID3、C4.5單層決策樹、隨機森林)
      2.5 貝葉斯方法:基於貝葉斯定理的一類算法統稱為貝葉斯算法,是為了解決不定性和不完整性問題提出的,對於解決復雜問題設備不確定性和關聯性引起的故障有很大優勢。(朴素貝葉斯算法、貝葉斯信念網絡)
      2.6 基於核的方法:將輸入數據映射到一個高階的向量空間,在高階空間向量里,有些分類或者回歸問題能更容易地解決。(支持向量機SVM、線性判別分析LDA、徑向基函數RBF)
      2.7 聚類算法:按照中心點或者分層的方式對輸入數據進行歸並,試圖找到數據的內在結構,以便按照最大的共同點將數據進行歸類。(k-means算法、期望最大化算法EM)
      2.8 關聯規則學習:通過尋找最能夠解釋數據變量之間關系的規則,來找出大量多元數據集中有用的相關性規則。(Apriori算法、Eclat算法)
      2.9 人工神經網絡:模擬生物神經網絡,是一類模式匹配算法,通常用於解決分類和回歸問題。(感知器神經網絡、反向傳遞、Hopfield網絡、自組織映射、學習矢量量化)
      2.10 降維算法:試圖利用較少的信息來歸納或解釋數據,可以用於高維數據的可視化或者簡化數據以便監督學習使用。(主成分分析PCA、偏最小二乘回歸PLS、Sammon映射)
      2.11 深度學習:對人工神經網絡的發展。(深度置信網絡DBN、卷積網絡、受限玻爾茲曼機RBN)
      2.12 集成算法:用一些相對較弱的學習模型獨立地就同樣地樣本進行訓練,然后把結果整合起來進行整體預測。(Boosting、Bagging、AdaBoost、隨機森林)

 

 

參考文獻:

        趙涓涓,強彥.Python機器學習[M].北京。:機械工業出版社,2019.6


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM