手写算法-python代码实现KNN

  • 原理解析
  • 代码实现
  • 实例展示
  • sklearn对比
  • 总结


原理解析

KNN-全称K-Nearest Neighbor,最近邻算法,可以做分类任务,也可以做回归任务,KNN是一种简单的机器学习方法,它没有传统意义上训练和学习过程,实现流程如下:
1、在训练数据集中,找到和需要预测样本最近邻的K个实例;
2、分别统计这K个实例所属的类别,最多的那个类别就是样本预测的类别(多数表决法);
对于回归任务而言,则是求这K个实例输出值的平均值(选择平均法);

因此,该算法的几个重点在于:
1、K值的选取,K值的不同直接会导致最终结果的不同(详情实例请看:链接: 实例展示 );
选择较小的k值,就相当于用较小的领域中的训练实例进行预测,训练误差会减小,只有与输入实例较近或相似的训练实例才会对预测结果起作用,与此同时带来的问题是泛化误差会增大,换句话说,K值的减小就意味着整体模型变得复杂,容易发生过拟合;
选择较大的k值,就相当于用较大领域中的训练实例进行预测,其优点是可以减少泛化误差,但缺点是训练误差会增大。这时候,与输入实例较远(不相似的)训练实例也会对预测器作用,使预测发生错误,且K值的增大就意味着整体的模型变得简单,容易欠拟合;
一般的,最佳K值的选取,我们可以用交叉验证法来寻找,分类准确率最高的(回归问题中就是均方误差最小的),就是最佳的K值;

2、距离的计算,计算最近邻的K个样本时,用哪种度量方式,最常用的是欧氏距离;

3、决策规则,一般就是多数表决法或者选择平均法,但是,K个近邻数据,到样本的距离也不一样,都一视同仁,也不太合理(这个问题的探讨可以看上面的链接文章);

代码实现

根据上面的KNN原理解析,我们来编写python代码(分类任务代码):

import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_classification
from sklearn.metrics import classification_report

class Knn():
    #默认k=5,设置和sklearn中的一样
    def __init__(self,k=5):
        self.k = k
    
    def fit(self,x,y):
        self.x = x
        self.y = y
        
    def predict(self,x_test):
        labels = []
        #这里可以看出,KNN的计算复杂度很高,一个样本就是O(m * n)
        for i in range(len(x_test)):
            
            #初始化一个y标签的统计字典
            dict_y = {}
            #计算第i个测试数据到所有训练样本的欧氏距离
            diff = self.x - x_test[i]
            distances = np.sqrt(np.square(diff).sum(axis=1))
            
            #对距离排名,取最小的k个样本对应的y标签
            rank = np.argsort(distances)
            rank_k = rank[:self.k]
            y_labels = self.y[rank_k]
            
            #生成类别字典,key为类别,value为样本个数
            for j in y_labels:
                if j not in dict_y:
                    dict_y.setdefault(j,1)
                else:
                    dict_y[j] += 1
            
            #取得y_labels里面,value值最大对应的类别标签即为测试样本的预测标签
            
            #label = sorted(dict_y.items(),key = lambda x:x[1],reverse=True)[0][0]
            #下面这种实现方式更加优雅
            label = max(dict_y,key = dict_y.get)
            
            labels.append(label)
            
        return labels

实例展示

利用sklearn生成实验数据集:

#有同学私信我,为什么每次都是生成2维数据,因为2维数据方便画图,哈哈
x,y = make_classification(n_features=2,n_redundant=0,random_state=2019)
plt.scatter(x[:,0],x[:,1],c=y)
plt.show()

KNN Python 评价 python knn算法代码_监督学习


数据表现如上,来看看分类效果:

#预测
knn = Knn()
knn.fit(x,y)
labels = knn.predict(x)

#查看分类报告
print(classification_report(y,labels))

KNN Python 评价 python knn算法代码_python_02


f1的值为94%,下面画图看看分类边界:

#画等高线图
x_min,x_max = x[:,0].min() - 1,x[:,0].max() + 1
y_min,y_max = x[:,1].min() - 1,x[:,1].max() + 1

xx = np.arange(x_min,x_max,0.02)
yy = np.arange(y_min,y_max,0.02)

xx,yy = np.meshgrid(xx,yy)

x_1 = np.c_[xx.ravel(),yy.ravel()]
y_1 = knn.predict(x_1)

#list没有reshape方法,转为np.array的格式
plt.contourf(xx,yy,np.array(y_1).reshape(xx.shape),cmap='GnBu')
plt.scatter(x[:,0],x[:,1],c=y)
plt.show()

KNN Python 评价 python knn算法代码_python_03


看起来还是很好的。

sklearn对比

下面调用sklearn里面的KNN库对比效果:

from sklearn.neighbors import KNeighborsClassifier
clf = KNeighborsClassifier(n_neighbors=5)
clf.fit(x,y)

#输出分类报告
print(classification_report(y,clf.predict(x)))

#画图
y_pred = clf.predict(x_1)

plt.contourf(xx,yy,y_pred.reshape(xx.shape),cmap='GnBu')
plt.scatter(x[:,0],x[:,1],c=y)
plt.show()

KNN Python 评价 python knn算法代码_机器学习_04


结果基本上是一样的。

总结

上面我们写了python代码,来实现基本的KNN分类,实际上sklearn里面的KNeighborsClassifier分类器,封装的内容则很多:

我们python代码中采用的办法称为蛮力实现(brute-force),即需要计算每一个测试样本到所有训练样本的距离,才能确定最终的预测标签,当数据集很大,特征很多,并且测试样本也很多时,需要的计算量大家可以想象一下,基本上跑不出来结果,这点我自己是有实际案例的;

而sklearn里面则对这点做出了优化,除了蛮力实现(brute-force),还有KD树实现(KDTree)和球树(BallTree)实现,后两者则大大提高了处理大数据集时的效率(感兴趣的同学可自行去查找这两者的资料),对于这三个算法,sklearn会根据输入的样本,自动选择一种算法(默认参数algorithm=‘auto’)。

对于距离的计算,我们直接用的欧氏距离,在sklearn里面,封装了很多种距离的度量方式,比如欧氏距离、曼哈顿距离、马氏距离、闵可夫斯基距离等,默认的是p=2的闵可夫斯基距离,也就是欧氏距离。