一、原理
K最近邻算法(K-Nearest Neighbor, KNN)是最基本的分类算法,其基本原理是:从最近的K个邻居(样本)中,选择出现次数最多的类别作为判定类别。K最近邻算法可以理解为是一个分类算法,常用于标签的预测,如性别。
实现KNN算法核心的一般思路:
- 相似度计算——计算未知样本和每个训练样本的距离;
- 排序——按照距离的递增关系排序;
- 统计标签——得到距离最小的前K个样本,统计K最近邻样本中每个样本出现的次数;
- 预测标签——选择出现频率最高的类标号作为未知样本的类标号;
K值的选择是选择统计的样本数量,K值得选择会对KNN算法产生较大得影响。
- 如果K值较小,则意味着:只有当需要进行预测的样本和训练的样本较接近时,才能有较好的效果;
- 如果K值较大,则意味着:算法分类的近似误差增大。这时,与输入样本距离较远的样本也会对结果产生作用。
在实际上,K值一般选择较小的数,也可以选择交叉验证的方法寻找最优K值。
二、实例Python实现
利用KNN算法实现性别判定:很多时候,用户在注册的时候,没有填写性别,这个时候,可以通过KNN预测。
import numpy as np class KNN: def __init__(self, k): self.k = k def createData(self): features = np.array([[180,76],[158,43],[176,78],[161,49]]) labels = ["男","女","男","女"] return features, labels def Normalization(self, data): # print("data:\n",data)
maxs = np.max(data, axis=0) # print("maxs:\n",maxs)
mins = np.min(data, axis=0) # print("mins\n",mins)
new_data = (data - mins) / (maxs - mins) # print("new_data:\n",new_data)
return new_data, maxs, mins def classify(self, one, data, labels): # 计算新样本与数据集每个样本之间的距离,这里采用欧式距离
differenceData = data - one squareData = (differenceData ** 2).sum(axis=1) distance = squareData ** 0.5
# 从小到大排序
sortDistanceIndex = distance.argsort() labelCount = dict() for i in range(self.k): label = labels[sortDistanceIndex[i]] labelCount.setdefault(label,0) labelCount[label] += 1
print("labelCount:\n",labelCount) sortLabelCount = sorted(labelCount.items(),key=lambda x:x[1], reverse=True) print(sortLabelCount) return sortLabelCount[0][0] if __name__ == '__main__': # 初始化类对象,前k个里面,哪个标签最多,就预计是那个
knn = KNN(3) # 创建数据集
features, labels = knn.createData() # 数据集标准化
new_data, maxs, mins = knn.Normalization(features) # 新数据的标准化
one = np.array([176,76]) new_one = (one - mins) / (maxs - mins) result = knn.classify(new_one, new_data, labels) print("数据{}的预测性别为:{}".format(one, result))
运行结果: