文章目录

  • 一. 决策树
  • 1. 定义
  • 2. 决策树的生成
  • 3. 损失函数
  • 4. 决策树的纯度
  • 5. 决策树的分割方式—— 非线性
  • 6. 剪枝
  • 7. one-hot
  • 7. 单棵决策树缺点
  • 8. 代码实现决策树
  • 二. 随机森林
  • 1. 定义
  • 2. 随机森林运行机制
  • 3. 随机森林的中心思想 —— 并行思想
  • 4. 随机森林与逻辑回归
  • 5. 代码实现随机森林


一. 决策树

1. 定义

逻辑回归是一种线性用监督的离散型分类模型

决策树是一种非线性有监督离散型分类模型

随机森林是一种非线性有监督离散型分类模型

决策树是通过固定的条件对类别进行判断的

逻辑回归用于非线性的解决方法: 映射到高维:

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_子节点

2. 决策树的生成

数据在不断分裂的递归过程中,每一次的分裂尽可能让类别一样的数据在树的一边,当树的叶子节点的数据都是一类的时候,则停止分裂(if-else语句)

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林_02

3. 损失函数

1) 基尼系数
基尼系数是指国际上通用的,用以衡量一个国家或者是地区居民收入差距的常用指标

  • 若低于0.2表示指数等级极低;(高度平均)
  • 0.2-0.29表示指数等级低;(比较平均)
  • 0.3-0.39表示指数等级中;(相对合理)
  • 0.4-0.59表示指数等级高;(差距较大)
  • 0.6以上表示指数等级极高。(差距悬殊)

2) 熵
1948年,香农提出了“信息熵”的概念,才解决了对信息的量化度量问题。信息熵这个词是C.E.香农从热力学中借用过来的。热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度信息增益
3) 方差

数据集:

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_决策树_03


分割方式1:

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林模型 和 广义线性回归模型区别_04

分割方式2:

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_决策树_05


哪种分割方式更好?

4. 决策树的纯度

1)定义
当应用一个特征(eg: 头发的长度),对数据(eg:男女)进行分类,若这个特征能把数据分到一侧(eg: 全为男,或者全为女),则可以说该特征可分类纯度高

2) 纯度与各参数的关系

基尼系数越大,熵越大,方差越大,数据集越不一样,纯度越高**

3) 纯度计算的方式

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林模型 和 广义线性回归模型区别_06


4) 纯度的参数

splitter: best(在创建决策树的时候选择最好的方式,这样的方式虽然速度慢,但是纯度高),random(在创建决策树的的时候,随意选择,这样做的好处是速度快,但是纯度低)

5. 决策树的分割方式—— 非线性

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林模型 和 广义线性回归模型区别_07


决策树的参数: 为了创建一个优秀的决策树而提供的支持

max_leaf_node:最大的叶子节点

max_depth:创建决策树的最大深度

min_samples_split:叶子节点的最小划分

min_samples_leaf: 最少分成多少个叶子节点

min_weight_fraction_leaf: 每个叶子节点的权重

max_features: 划分时考虑的最大特征数(官方文档: The number of features to consider when looking for the best split:在决定最好的划分时候,特征的数量)

6. 剪枝

1)实质: 就是决策树的正则化
2)目的: 为了减少过拟合现象
3)剪枝分类
(1)预剪枝

  • 定义: 在这棵树还没有开始分裂的时候,提前预设一些条件,通过对将要生成的树的判断,来限制max_depth
  • 预剪枝的方式: 控制分裂的层数、控制叶子节点的样本数量

(2) 后剪枝
定义: 在树生成之后,通过对某些叶子节点的删除,来限制max_leaf_perc(比如: 合并叶子节点)

4)剪枝的作用:
剪枝保证了模型的通用性

7. one-hot

1)定义
One-Hot编码,又称为一位有效编码,主要是采用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候只有一位有效。
One-Hot编码是分类变量作为二进制向量的表示。这首先要求将分类值映射到整数值。然后,每个整数值被表示为二进制向量,除了整数的索引之外,它都是零值,它被标记为1。
2) 实例
eg1: 男女的表示:
男——>10
女——>01
eg2:
运动特征:[“足球”,“篮球”,“羽毛球”,“乒乓球”](这里N=4):
足球 => 1000
篮球 => 0100
羽毛球 => 0010
乒乓球 => 0001
当想要表示样本[“男”,“羽毛球”]的时候就可以写成: [100010],实际上就是:[10 | 0010 ]
3) 使用one-hot 的好处
使用one-hot编码,将离散特征的取值扩展到了欧式空间,离散特征的某个取值就对应欧式空间的某个点。将离散型特征使用one-hot编码,确实会让特征之间的距离计算更加合理

7. 单棵决策树缺点

1). 运算量大,需要一次加载所有数据进内存,并且找寻分割条件是一个极消耗资源的工作
2). 训练样本中出现异常数据的时候,将会对决策树产生很大的影响,抗干扰能力差
解决方法:
1). 减少决策树所需的训练样本(减少行或者减少列)
2). 随机采样,降低异常数据的影响

8. 代码实现决策树

实验代码如下:

from sklearn.tree import DecisionTreeRegressor
    import  numpy as np
    import matplotlib.pyplot as plt
    
    N = 100
    x = np.random.rand(N) * 6 -3
    x.sort()
    
    y = np.sin(x) + np.random.rand(N)*0.05
    x= x.reshape(-1,1)
    dt_reg = DecisionTreeRegressor(criterion='mse',max_depth=3)
    dt_reg.fit(x,y)
    x_test = np.linspace(-3,3,50).reshape(-1,1)
    y_hat = dt_reg.predict(x_test)
    
    plt.plot(x, y, "y*", label="actual")
    plt.plot(x_test, y_hat, "b-", linewidth=2, label="predict")
    plt.legend(loc="upper left")
    plt.grid()
    plt.show()
    
    #################################################
    
    # 比较不同深度的决策树
    depth = [2, 4, 6, 8, 10]
    color = 'rgbmy'
    dt_reg = DecisionTreeRegressor()
    plt.plot(x, y, "ko", label="actual")
    x_test = np.linspace(-3, 3, 50).reshape(-1, 1)
    for d, c in zip(depth, color):
        dt_reg.set_params(max_depth=d)
        dt_reg.fit(x, y)
        y_hat = dt_reg.predict(x_test)
        plt.plot(x_test, y_hat, '-', color=c, linewidth=2, label="depth=%d" % d)
    plt.legend(loc="upper left")
    plt.grid(b=True)
    plt.show()

运行结果为:

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林模型 和 广义线性回归模型区别_08


实验分析:

黑色的点代表就是原始数据,我们可以看出,当深度很小的时候,决策树的分类效果相对不好,也就是纯度不高。 随着设定深度的增加,决策树的纯度越来越高,最终基本与原始数据拟合。但要注意,深度不能设定的过大,因为可能会出现过拟合的现象。

二. 随机森林

1. 定义

森林: 由树组成

随机: 生成树的数据是从数据集中随机选取的

随机森林: 是由许多决策树组成的

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_决策树_09

2. 随机森林运行机制

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林_10

3. 随机森林的中心思想 —— 并行思想

因为随机森林中的树都是相互独立的,所以这些树可以在不同的机器上,或者CPU,GPU上运行,这样能极大缩短建模的时间

4. 随机森林与逻辑回归

1)分类:

  • 逻辑回归: 软分类(可以设置阈值)
  • 随机森林: 硬分类

2)模型:

  • 逻辑回归: 线性模型
  • 随机森林: 非线性模型

3)输出

  • 逻辑回归: 输出有概率意义
  • 随机森林: 输出无概率意义

4)抗干扰

  • 逻辑回归: 抗干扰能力强
  • 随机森林: 抗干扰能力弱

5. 代码实现随机森林

实验代码如下:

from sklearn.model_selection import train_test_split
    from sklearn.tree import  DecisionTreeClassifier
    from  sklearn.metrics import  accuracy_score
    from sklearn.datasets import load_iris
    import pandas as pd
    import numpy as np
    import matplotlib.pyplot as plt
    
    iris = load_iris()
    data = pd.DataFrame(iris.data)
    data.columns= iris.feature_names
    data['Species'] = iris.target
    print(data)
    x = data.iloc[:,:2]
    y = data.iloc[:,-1]
    
    x_train , x_test,y_train,y_test = train_test_split(x,y,test_size=0.75,random_state=42)
    #创建一个决策树的模型
    tree_clf = DecisionTreeClassifier(max_depth=4,criterion='entropy')
    tree_clf.fit(x_train,y_train)
    y_test_hat = tree_clf.predict(x_test)
    # acc score: 准确率
    print("acc score: ",accuracy_score(y_test,y_test_hat))
    depth = np.arange(1,15)
    err_list = []
    for d in depth:
        clf = DecisionTreeClassifier(criterion='entropy',max_depth=d)
        clf.fit(x_train,y_train)
        y_test_hat= clf.predict(x_test)
        result = (y_test_hat ==y_test)
        err = 1-np.mean(result)
        err_list.append(err)
        print(d,"错误率:%.2f%%" %( 100 * err))
    
    plt.figure(facecolor = 'w')
    plt.plot(depth,err_list,'ro-',lw = 2)
    plt.xlabel('Decision Tree Depth', fontsize=15)
    plt.ylabel('Error Rate', fontsize=15)
    plt.title('Decision Tree Depth & Over Fit', fontsize=18)
    plt.grid(True)
    plt.show()

运行结果为

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_随机森林_11

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_子节点_12

随机森林模型 和 广义线性回归模型区别 随机森林非线性回归_决策树_13