一句話總結各個算法以及應用場景?


em,是一種含有隱含變量的概率模型參數的極大似然估計法。主要應用在機器學習以及計算機視覺的數據聚類領域。

lr,邏輯回歸,本質也是線性回歸,通過擬合擬合樣本的某個曲線,然后使用邏輯函數進行區間縮放,但是一般用來分類,主要用在點擊率預估、推薦系統等;
svm,支撐向量機,通過找到樣本空間中的一個超平面,實現樣本的分類,也可以作回歸,主要用在文本分類,圖像識別等領域,詳見:;
nn,神經網絡,通過找到某種非線性模型擬合數據,主要用在圖像處理等;
nb,朴素貝葉斯,通過找到樣本所屬於的聯合分步,然后通過貝葉斯公式,計算樣本的后驗概率,從而進行分類,主要用來文本分類;
dt,決策樹,構建一棵樹,在節點按照某種規則(一般使用信息熵)來進行樣本划分,實質是在樣本空間進行塊狀的划分,主要用來分類,也有做回歸,但更多的是作為弱分類器,用在model embedding中;
rf,隨進森林,是由許多決策樹構成的森林,每個森林中訓練的樣本是從整體樣本中抽樣得到,每個節點需要進行划分的特征也是抽樣得到,這樣子就使得每棵樹都具有獨特領域的知識,從而有更好的泛化能力;
gbdt,梯度提升決策樹,實際上也是由多棵樹構成,和rf不同的是,每棵樹訓練樣本是上一棵樹的殘差,這體現了梯度的思想,同時最后的結構是用這所有的樹進行組合或者投票得出,主要用在推薦、相關性等;
knn,k最近鄰,應該是最簡單的ml方法了,對於未知標簽的樣本,看與它最近的k個樣本(使用某種距離公式,馬氏距離或者歐式距離)中哪種標簽最多,它就屬於這類;

朴素貝葉斯(Naive Bayes)法是基於貝葉斯定理與特征條件獨立假設的分類方法,對於給定的訓練數據集,首先基於特征條件獨立假設學習輸入/輸出的聯合概率分布;然后基於此模型,對給定的輸入x,利用貝葉斯定理求出后驗概率最大的輸出y。對於給出的待分類項,求解在此項出現的條件下各個類別出現的概率,哪個最大,就認為此待分類項屬於哪個類別。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2026 CODEPRJ.COM