數據挖掘入門系列教程(二)之分類問題OneR算法


數據挖掘入門系列教程(二)之分類問題OneR算法

數據挖掘入門系列博客:https://www.cnblogs.com/xiaohuiduan/category/1661541.html

項目地址:GitHub

在上一篇博客中,我們通過分析親和性來尋找數據集中數據與數據之間的相關關系。這篇博客我們會討論簡單的分類問題。

分類簡介

分類問題,顧名思義我么就是去關注類別(也就是目標)這個變量。分類應用的目的是根據已知類別的數據集得到一個分類模型,然后通過這個分類模型去對類別未知的數據進行分類。這里有一個很典型的應用,那就是垃圾郵件過濾器。

在這片博客中,我們使用著名Iris(鳶尾屬)植物作為數據集。這個數據集共有150條植物數據,每條數據都給出了四個特征:sepal length、sepal width、petal length、petal width(分別表示萼片和花瓣的長與寬),單位均為cm。一共有三種類別:Iris Setosa(山鳶尾)、Iris Versicolour(變色鳶尾)和Iris Virginica(維吉尼亞鳶尾)

數據集准備

在scikit-learn庫中內置了該數據集,我們首先pip安裝scikit-learn庫


下面的代碼表示從sklearn中的數據集中加載iris數據集,並打印數據集中的說明(Description)。

from sklearn.datasets import load_iris
dataset = load_iris()
print(dataset.DESCR)
# data 為特征值
data = dataset.data
# target為分類類別
target = dataset.target

截一個數據集中的說明圖:


在數據集中,數據的特征值一般是連續值,比如說花瓣的長度可能有無數個值,而當兩個值相近時,則表示相似度很大。(這個是由自然界決定的)

與之相反,數據的類別為離散值。因為一種植物就肯定是一種植物,通常使用數字表示類別,但是在這里,數字的相近不能夠代表這兩個類別相似(因為這個類別是人為定義的)

數據集的特征為連續數據,而類別是離散值,因此我們需要將連續值轉成類別值,這個稱之為離散化

而將連續數據進行離散化有個很簡單的方法,就是設定一個閾值,高於這個閾值為1,低於這個閾值為0。具體怎么實現我們在下面再說。

OneR算法

OneR(one rule)算法很簡單,當時挺有效的。on rule,一條規則,以上面的iris植物為例,就是我們選擇四個特種中分類效果最好的一個作為分類依據。這里值得注意的是,選擇一個選擇一個選擇一個

下面是算法的具體步驟,為《Python數據挖掘入門與實踐》的原文。

算法首先遍歷每個特征的每一個取值,對於每一個特征值,統計它在各個類別中的出現次數,找到它出現次數最多的類別,並統計它在其他類別中的出現次數。

舉例來說,假如數據集的某一個特征可以取0或1兩個值。數據集共有三個類別。特征值為0的情況下,A類有20個這樣的個體,B類有60個,C類也有20個。那么特征值為0的個體最可能屬於B類,當然還有40個個體確實是特征值為0,但是它們不屬於B類。將特征值為0的個體分到B類的錯誤率就是40%,因為有40個這樣的個體分別屬於A類和C類。特征值為1時,計算方法類似,不再贅述;其他各特征值最可能屬於的類別及錯誤率的計算方法也一樣。

統計完所有的特征值及其在每個類別的出現次數后,我們再來計算每個特征的錯誤率。計算方法為把它的各個取值的錯誤率相加,選取錯誤率最低的特征作為唯一的分類准則(OneR),用於接下來的分類。

如果大家對OneR算法為什么能夠對花卉進行分類感到迷惑的話,可以繼續往下看,后面有說明。

在前面的前面我們介紹了特征值的離散化,通過設定一個閾值,我們可以將特征值變成簡單的0和1。具體怎么做呢?可以看下面的圖片:


假如一共有三個類別,120條數據形成一個(120 × 3的矩陣),然后我們進行壓縮行,計算每一列的平均值,然后得到閾值矩陣(1 × 3的矩陣)。這個時候,我們就可以原先的數據進行離散化,變成0和1了。(這一步可以看示意圖)

在python的numpy中有一個方法,numpy.mean,里面經常操作的參數為axis,以m*n的矩陣為例:

  • axis = None,也就是不加這個參數,則是對m*n 個求平均值,返回一個實數
  • axis = 0:壓縮行,對各列求均值,返回 1* n 矩陣
  • axis =1 :壓縮列,對各行求均值,返回 m *1 矩陣
average_num = data.mean(axis = 0)

import numpy as np
data = np.array(data > average_num,dtype = "int")
print(data)

通過np.array去構建一個新的數組,當data 大於average_num的時候(為矩陣比較),就為True,否則為False,然后指定類型為int,則True變成了1,False變成了0。結果如下圖:


算法實現

既然是去構建一個分類模型,那么我們既需要去構建這個模型,也需要去測試這個模型。so,我們既需要訓練集,也需要測試集。根據二八法則,一共150條數據,那么就有120個訓練集,30個測試集。

幸運的是sklearn提供了這個划分訓練集的庫給我們,train_test_split中0.2 代表的是測試集所占的比例(在我上傳到GitHub的源代碼中,沒有設置這個值,默認是0.25),14代表的是隨機種子。


from sklearn.model_selection import train_test_split
# 隨機獲得訓練和測試集
def get_train_and_predict_set():
    data_train,data_predict,target_train,target_predict = train_test_split(data,target,test_size=0.2, random_state=14)
    return data_train,data_predict,target_train,target_predict

data_train,data_predict,target_train,target_predict = get_train_and_predict_set()

這里有一點需要注意,同時也是困擾了我一段時間的問題。那就是在OneR算法中,只憑借1個特征,2種特征值,憑什么能夠對3種花卉進行識別??實際上,不能,除非有3個特征值。在《Python數據挖掘入門與實踐》,用花卉這個例子舉OneR算法不是很恰當,因為當算法實現的時候,只能夠識別出兩種花卉。如下圖:


如果想看一個合適的例子,大家可以去看:https://www.saedsayad.com/oner.htm,在里面最后識別的結果只有yes和no。

具體的訓練步驟是怎么樣的呢?

首先我們假設有x,y,z三個特征,每個特征的特征值為0和1,同時有A,B兩個類。因此我們可以得到下面的統計。

對於每一個特征值,統計它在各個類別中的出現次數:


既然我們得到了統計,這時候,我們就開始來計算錯誤率。首先我們找到某個特征值(如 $X = 0$)出現次數最多的類別。在下圖中,被框框圈住的部分就是出現次數最多的特征值(如果有三個類別,任然是選擇次數最多的類別)。


再然后我們就是計算出每一個特征的錯誤率了,下面以$X$為例


同理,我們可以得到$Y$,$Z$的錯誤錯誤率,然后選擇最小的錯誤率作為分類標准即可。

說了這么多,現在來寫代碼了。

下面是train_feature函數,目的是得到指定特征特征值得到錯誤率最小的類別。也就是上面圖中的$b_{x0},a_{x1}$等等。


from collections import defaultdict
from operator import itemgetter

def train_feature(data_train,target_train,index,value):
    """ data_train:訓練集特征 target_train:訓練集類別 index:特征值的索引 value :特征值 """
    count = defaultdict(int)
    for sample,class_name in zip(data_train,target_train):
        if(sample[index] ==value):
            count[class_name] += 1
            
   	# 進行排序
    sort_class = sorted(count.items(),key=itemgetter(1),reverse = True)
    # 擁有該特征最多的類別
    max_class = sort_class[0][0]
    max_num = sort_class[0][1]
    all_num = 0
    
    for class_name,class_num in sort_class:
        all_num += class_num
# print("{}特征,值為{},錯誤數量為{}".format(index,value,all_num-max_num))
    # 錯誤率
    error = 1 - (max_num / all_num)
    return max_class,error

在train函數中,我們對所有的特征和特征值進行計算,得到最小的特征錯誤率。


def train():
    errors = defaultdict(int)
    class_names = defaultdict(list)
    # 遍歷特征
    for i in range(data_train.shape[1]):
       # 遍歷特征值 
        for j in range(0,2):
            class_name,error = train_feature(data_train,target_train,i,j)
            errors[i] += error
            class_names[i].append(class_name)            
    return errors,class_names

errors,class_names = train()
# 進行排序
sort_errors = sorted(errors.items(),key=itemgetter(1))
best_error = sort_errors[0]
# 得到最小錯誤率對應的特征
best_feature = best_error[0]
# 當特征值取 0 ,1對應的類別。
best_class = class_names[best_feature]
print("最好的特征是{}".format(best_error[0]))
print(best_class)

訓練完成后,我們就可以進行predict了。predict就是那測試集中數據進行測試,使用自己的模型進行預測,在與正確的作比較得到准確度。看下圖predict的流程:


下面是預測代碼以及准確度檢測代碼:

# 進行預測
def predict(data_test,feature,best_class):
    return np.array([best_class[int(data[feature])] for data in data_test])

result_predict = predict(data_predict,best_feature,best_class)

print("預測准確度{}".format(np.mean(result_predict == target_predict) * 100))
print("預測結果{}".format(result_predict))

結果

在以下條件下:

  • 分割測試集和訓練集的隨機種子為14
  • 默認的切割比例

最后的結果如下如所示:


在以下條件下:

  • 切換比例為2:8
  • 隨機種子為14

結果如下圖所示


OneR算法很簡單,但是在某些情況下卻很有效,沒有完美的算法,只有最適用的算法。

結尾

GitHub地址:GitHub

參考書籍:Python數據挖掘入門與實踐

感謝蔣少華老師為我解惑。


免責聲明!

本站轉載的文章為個人學習借鑒使用,本站對版權不負任何法律責任。如果侵犯了您的隱私權益,請聯系本站郵箱yoyou2525@163.com刪除。



 
粵ICP備18138465號   © 2018-2025 CODEPRJ.COM