文章目录

  • 1.KNN算法的个人理解
  • 2.KNN核心思想
  • 3.KNN的实现代码
  • 4.例子
  • 6.KNN的优缺点
  • 7.上面例子的测试代码

1.KNN算法的个人理解

个人感觉KNN算法(K-NearestNeighbor)一种极其简单粗暴的分类方法,举一个例子,比如说你想知道一个人是不是喜欢打游戏,就可以观察他最亲密的几个朋友是不是都喜欢打游戏,如果大多数都喜欢打游戏,可以推测这个人也喜欢打游戏。KNN就是基于这种有点“物以类聚,人以群分”的简单粗暴的想法来进行分类的。

2.KNN核心思想

在给定一个训练数据集,再给定一个需要作出预测的数据,然后再在训练数据集中寻找k这个就是KNN的K的由来个与待预测数据最近(通常我们可以取欧氏距离作为距离的度量)的数据。最后选取k个数据中出现最多的分类作为待预测数据的分类。

欧氏距离:training_args中的_n_gpu是设置gpu的吗 knn gpu_python

3.KNN的实现代码

def KNN(inpudata,data_matrix,label_matrix,k):
    '''

    :param inpudata: 待预测的数据
    :param data_matrix: 数据集
    :param label_matrix: 数据集的标签
    :param k: 寻找的近邻数
    :return: 分类的结果
    '''
    datalen=data_matrix.shape[0]
    inpudata=np.tile(inpudata,(datalen,1))#海伦约会的例子将数据变成(datalen,3)
    sub=inpudata-data_matrix
    sq=sub**2
    sum=sq.sum(axis=1)#按行方向求和
    distance=sum*0.5
    sorteddisarg=distance.argsort()# 按距离从小到大排序的索引
    classcount={}#记录各出现次数
    for i in range(k):
        vote=label_matrix[sorteddisarg[i]]# 第i个元素的类别
        classcount[vote]=classcount.get(vote,0)+1 #给vote这个键的值加一,如果这个键不存在,则创建并设置默认值0
    # key=operator.itemgetter(1)根据字典的值进行排序,为0根据字典的键进行排序
    # reverse降序排序字典
    result=sorted(classcount.items(),key=operator.itemgetter(1),reverse=True)
    return result[0][0] #返回分类的结果

4.例子

下面以海伦约会的例子来运用实现的KNN算法
海伦约会数据集下载

数据总共有1000行
特征
1.每年飞行里程数
2.玩游戏时间
3.每周消费的冰淇淋公升数
标签
1.didntLike
2.smallDoses
3.largeDoses

下面展示数据集的可视化结果:

training_args中的_n_gpu是设置gpu的吗 knn gpu_机器学习_02

由上图可见,海伦喜欢每年有适当飞行公里数的人(大概在40000左右),而且有一定游戏时间数的男人,但是不喜欢那种一直在外面飞的男人。

下面先来进行KNN算法的准确度计算:
我们取该数据集前面十分之一作为测试集,后面的十分之九作为训练集,检验一下分类的正确率:

建议在实现过程中对数据实现归一化,因为在此数据集中,相比于游戏时间和每周冰淇淋消费公升数,飞机飞行公里数在数值上最大,它的变化对距离的计算产生的影响也就更大,也就更容易影响到最后的分类结果。但是海伦在约会实例中我们认为三个特征同等重要,因此我们需要将所有的特征的取值范围进行限制,让三个特征对最终的分类结果的影响相同。

经过测试后发现归一化前后测试数据的正确率前者为80%,后者为96%

归一化前:           归一化后:

training_args中的_n_gpu是设置gpu的吗 knn gpu_机器学习_03

training_args中的_n_gpu是设置gpu的吗 knn gpu_数据集_04

最后我们给出3组数据然后使用KNN进行预测:

training_args中的_n_gpu是设置gpu的吗 knn gpu_数据_05


预测结果:

training_args中的_n_gpu是设置gpu的吗 knn gpu_归一化_06

6.KNN的优缺点

优点:1.只找离待预测点最近的K个值,对异常的值不敏感
   2.理解与实现都很容易
缺点:1.计算量大,内存开销大