有监督学习--分类模型--K 近邻(kNN)0.引入依赖1.数据的加载和预处理2.核心算法实现3.测试4.自动化测试


有监督学习--分类模型--K 近邻(kNN)

0.引入依赖

import numpy as np # 数值计算、矩阵运算、向量运算
import pandas as pd # 数值分析、科学计算

# 这里直接引入 sklearn 里的数据集 --> iris 鸢尾花
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split # 切分数据集为训练集和测试集
from sklearn.metrics import accuracy_score # 计算分类预测的准确率

1.数据的加载和预处理

iris = load_iris()
# iris # 字典
# type(iris) # sklearn.utils.Bunch

df = pd.DataFrame(data=iris.data, columns=iris.feature_names)
# print(df)

df['class'] = iris.target
df['class'] = df['class'].map({0: iris.target_names[0], 1: iris.target_names[1], 2: iris.target_names[2]})
# df

df.describe()

输出结果如下:

04_有监督学习--分类模型--K 近邻(kNN)_二维数组

小测试:

x = iris.data
# x # x 是二维数组

# y = iris.target
# y # y 是一维数组,需要转成二维数组

y = iris.target.reshape(-11# 变成 n 行 1 列的列向量
# y

print(x.shape, y.shape) # (150, 4) (150, 1)

输出结果:

(1504) (1501)

划分训练集和测试集:

# 划分训练集和测试集,第三个参数我们选取简单交叉验证,第四个参数表示随机划分,第五个参数表示按照 y 的分布等比例分割
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.3, random_state=35, stratify=y)

print(x_train.shape, y_train.shape)
print(x_test.shape, y_test.shape)

# 测试
# x_test = x_test[0].reshape(1, -1) # 将一维数组 x.test[0] 变为 二维数组
# x_test.shape # (1, 4)
# print(x_train)
# print(x_test)
# np.sum(np.abs(x_train - x_test), axis=1)

# distances = np.array([2, 1, 5, 4, 3, 11, 15, 20, 9, 110])
# print(np.argsort(distances)) # [1 0 4 3 2 8 5 6 7 9]

# nn_index = np.argsort(distances)
# print(nn_index[0:3]) # [1 0 4]

# nn_y = y_train[nn_index[0:3]].ravel()

# print(nn_y) # [2 1 1]
# print(np.bincount(nn_y)) # [0 2 1]
# print(np.argmax(np.bincount(nn_y))) # 1

输出结果:

(1054) (1051)
(454) (451)
 

2.核心算法实现

# 定义距离函数
# 曼哈顿距离的平方
def l1_distance(a, b): # 这里要求:a 可以是矩阵,b 必须是向量,且是行向量
    return np.sum(np.abs(a - b), axis=1# axis=1 表示将 sum 的运算结果保存成 1 列

# 欧式距离
def l2_distance(a, b): 
    return np.sqrt(np.sum((a - b) ** 2, axis=1))

# 分类器实现
class kNN(object):
    # 定义一个初始化方法,形式是 __init__ 是类的构造方法
    def __init__(self, n_neighbors=1, dist_func=l1_distance):
        self.n_neighbors = n_neighbors
        self.dist_func = dist_func

    # 定义模型的训练方法
    def fix(self, x, y):
        self.x_train = x
        self.y_train = y

    # 定义模型的预测方法
    def predict(self, x):
        # 初始化预测分类数组
        y_pred = np.zeros((x.shape[0], 1), dtype=self.y_train.dtype)

        # 遍历输入的 x 数据点,取出每一个数据点的序号 i 和数据 x_test
        for i, x_test in enumerate(x):
            # 计算 x_test 与各个训练数据之间的距离
            distances = self.dist_func(self.x_train, x_test)

            # 得到的距离按照由近到远排序,取的是索引值
            nn_index = np.argsort(distances)

            # 选取最近的 k 个点,保存它们对应的分类类别
            nn_y = self.y_train[nn_index[0:self.n_neighbors]].ravel()

            # 统计类别中出现频率最高的那个,赋值给 y_pred[i]
            y_pred[i] = np.argmax(np.bincount(nn_y))

        return y_pred

3.测试

# 定义一个 kNN 的实例
knn = kNN(n_neighbors=3)
# 训练模型
knn.fix(x_train, y_train)
# 测试模型
y_pred = knn.predict(x_test)

# 求出预测的准确率
accuracy = accuracy_score(y_test, y_pred)
print('预测准确率:', accuracy)

输出结果:

预测准确率: 0.9333333333333333

4.自动化测试

# 定义一个 kNN 的实例
knn = kNN()
# 训练模型
knn.fix(x_train, y_train)

# 保存结果 list
result_list = []

# 针对不同的参数选取做预测
for p in [12]:
    knn.dist_func = l1_distance if p == 1 else l2_distance
    # 考虑不同的 k 取值
    for k in range(1102): # 1, 3, 5, 7, 9 注意:二元分类中我们选取 k 为奇数,但是本题中是三元分类,效果不明显
        knn.n_neighbors = k
        # 传入测试数据,测试模型
        y_pred = knn.predict(x_test)
        # 求出预测的准确率
        accuracy = accuracy_score(y_test, y_pred)
        result_list.append([k, 'l1_distance' if p == 1 else 'l2_distance', accuracy])

df = pd.DataFrame(result_list, columns=['k''距离函数''预测正确率'])
df

输出结果如下:

04_有监督学习--分类模型--K 近邻(kNN)_算法_02
Copyright ©2018-2019
【转载文章务必保留出处和署名,谢谢!】