原文:決策樹中的熵和基尼指數

決策樹是一種很基本的分類與回歸方法,但正如前面博文機器學習排序算法:RankNet to LambdaRank to LambdaMART中所講的LambdaMART算法一樣,這種最基本的算法卻是很多經典 復雜 高效的機器學習算法的基礎。關於什么是決策樹,網上一搜就會有很多博客文章,所以本文並不想討論這個話題。本文想討論的是決策樹中兩個非常重要的決策指標:熵和基尼指數。熵和基尼指數都是用來定義隨機 ...

2018-10-22 09:42 0 8538 推薦指數:

查看詳情

決策樹-指數

指數(Gini不純度)表示在樣本集合中一個隨機選中的樣本被分錯的概率。 注意:Gini指數越小表示集合中被選中的樣本被參錯的概率越小,也就是說集合的純度越高,反之,集合越不純。當集合中所有樣本為一個類時,指數為0. 指數的計算方法為:其中,pk表示樣本屬於第k個類別的概率 舉例 ...

Tue Jan 12 05:57:00 CST 2021 0 1770
決策樹3:指數--Gini index(CART)

既能做分類,又能做回歸。分類:值作為節點分類依據。回歸:最小方差作為節點的依據。 節點越不純,值越大,值越大 pi表示在信息部分中有介紹,如下圖中介紹 方差越小越好。 選擇最小的那個0.3 ...

Sat May 01 05:52:00 CST 2021 0 367
決策樹算法2-決策樹分類原理2.4-值和指數

1 概念 CART決策樹使用"指數" (Gini index)來選擇划分屬性,分類和回歸任務都可用。 值Gini(D):從數據集D隨機抽取兩個樣本,其類別標記不一致的概率 Gini(D)值越小,數據集D的純度越高。 2 計算 數據集 D ...

Thu Sep 23 00:29:00 CST 2021 0 389
《機器學習(周志華)》筆記--決策樹(2)--划分選擇:信息、信息增益、信息增益率、指數

四、划分選擇   1、屬性划分選擇   構造決策樹的關鍵是如何選擇最優划分屬性。一般而言,隨着划分過程不斷進行,我們希望決策樹的分支結點所包含的樣本盡可能屬於同一類別,即結點的“純度”越來越高。   常用屬性划分的准則:     (1)ID3:信息增益     (2)C4.5:增益率 ...

Tue Feb 04 02:23:00 CST 2020 0 1928
決策樹信息(entropy),系數(gini)

總是很容易忘記一些專業術語的公式,可以先理解再去記住 1.信息(entropy) 反正就是先計算每一類別的占比,然后再乘法,最后再將每一類加起來 其中distribution()的功能就是計算一個series各類的占比 2.系數(GINI ...

Thu Feb 25 04:29:00 CST 2021 0 951
決策樹

一. 自然界: 自封閉系統的運動總是倒向均勻分布: 1.自信息: 信息: i(x) = -log(p(x)) a.如果說概率p是對確定性的度量 b.那么信息就是對不確定性的度量 c.當一個小概率事件發生了,這個事件的信息量很大;反之如果一個大概率事件發生 ...

Sat Feb 20 23:22:00 CST 2016 0 3628
決策樹學習決策樹學習基本算法

決策樹學習基本算法 輸入:訓練集; 屬性集. 過程:函數 1: 生成結點node; 2: if 樣本全屬於同一類別 then 3: 將node標記為類葉結點; return 4: end if 5: if 樣本在上取值相同 then 6: 將node標記為葉 ...

Mon Sep 05 16:07:00 CST 2016 0 2127
 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM