機器學習有關分類的算法


有關智能優化算法:
參考學習:
https://blog.csdn.net/qq_25225255/article/details/82355211
https://blog.csdn.net/sinat_32547403/article/details/73008127
0>梯度下降
1>進化類算法
遺傳算法
差分進化算法
免疫算法
2>群智能算法
粒子群(PSO)
蟻群(ACO)
3>模擬退火算法
4>禁忌搜索算法
5>網格搜索法 分離間隔優化
參考學習:https://blog.csdn.net/sinat_32547403/article/details/73008127

有關分類算法:
決策樹:

1.復雜的情況下也是一樣,對於每一個特征,找到一個使得Gini值最小的分割點(這個分割點可以是>,<,>=這樣的判斷,也可以是=,!=),然后比較每個特征之間最小的Gini值,作為當前最優的特征的最優分割點(這實際上涉及到了兩個步驟,選擇最優特征以及選擇最優分割點)。
2.在第一步完成后,會生成兩個葉節點,我們對這兩個葉節點做判斷,計算它的Gini值是否足夠小(若是,就將其作為葉子不再分類)
3.將上步得到的葉節點作為新的集合,進行步驟1的分類,延伸出兩個新的葉子節點(當然此時該節點變成了父節點)
4.循環迭代至不再有Gini值不符合標准的葉節點、
隨機森林:
鑒於決策樹容易過擬合的缺點,隨機森林采用多個決策樹的投票機制來改善決策樹,我們假設隨機森林使用了m棵決策樹,那么就需要產生m個一定數量的樣本集來訓練每一棵樹,如果用全樣本去訓練m棵決策樹顯然是不可取的,全樣本訓練忽視了局部樣本的規律,對於模型的泛化能力是有害的

貝葉斯分類·

設每個數據樣本用一個n維特征向量來描述n個屬性的值,即:X={x1,x2,…,xn},假定有m個類,分別用C1, C2,…,Cm表示。給定一個未知的數據樣本X(即沒有類標號),若朴素貝葉斯分類法將未知的樣本X分配給類Ci,則一定是
P(Ci|X)>P(Cj|X) 1≤j≤m,j≠i 根據貝葉斯定理
由於P(X)對於所有類為常數,最大化后驗概率P(Ci|X)可轉化為最大化先驗概率P(X|Ci)P(Ci)。如果訓練數據集有許多屬性和元組,計算P(X|Ci)的開銷可能非常大,為此,通常假設各屬性的取值互相獨立,這樣
先驗概率P(x1|Ci),P(x2|Ci),…,P(xn|Ci)可以從訓練數據集求得。
根據此方法,對一個未知類別的樣本X,可以先分別計算出X屬於每一個類別Ci的概率P(X|Ci)P(Ci),然后選擇其中概率最大的類別作為其類別。

朴素貝葉斯算法成立的前提是各屬性之間互相獨立。當數據集滿足這種獨立性假設時,分類的准確度較高,否則可能較低。另外,該算法沒有分類規則輸出。

KNN:

根據鄰近樣本決定測試樣本的類別。

kmeans:

kmeans的計算方法如下:
1 隨機選取k個中心點
2 遍歷所有數據,將每個數據划分到最近的中心點中
3計算每個聚類的平均值,並作為新的中心點
4 重復2-3,直到這k個中線點不再變化(收斂了),或執行了足夠多的迭代

增量學習:

不斷從新樣本中學習新知識,並保存大部分以前已經學過的知識。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM