前言


本篇内容为第六章内容,决策树模型。
为便于阅读,我将文章内容分为以下几个板块:

  1. 基础知识
  2. 实验内容
  3. 拓展研究
  4. 心得体会

其中,各板块的介绍如下:

  • 基础知识
  • 包含关于本章主题的个人学习理解,总结的知识点以及值得记录的代码及运行结果。
  • 实验内容
  • 这是本篇的主题实验部分,也是老师发的实验内容,在电脑上(jupyter notebook)运行成功之后导出为markdown格式。
  • 其中,主标题为每一章的小节内容
  • 如上图,主标题为PCA主成分分析与代码实现,次级标题为该文件内的子模块。每一个主标题下内容互不相同,也就是说,会出现两个主标题下均有相同python库引用的情况,为保证代码的完整性,在此予以保留。
  • 为表明确实是完成了课堂作业,故代码与老师给的代码大致相同,但markdown文本部分加入了自己的理解,同时,因为数据源不一定相同,运行结果和绘图也与教程相异,但实验本身是正确完整的。
  • 此外,一些老师发的相关的案(不在课程中心的实验,而是发到课程群中的案例,如 案例 航空公司客户价值分析)也会附在这一部分中。
  • 拓展研究
  • 这个部分是 自己在本课题实验之外尝试的拓展内容,包括代码和知识点,也有自己的实验
  • 心得体会

基础知识

决策树
决策树学习通常包括3个步骤:特征选择、决策树的生成和决策树的修剪。

决策树模型与学习
决策树:分类决策树模型是一种描述对实例进行分类的树形结构。决策树由结点和有向边组成。

结点有两种类型:内部结点和叶结点。

内部结点表示一个特征或属性,叶结点表示一个类。

用决策树分类,从根结点开始,对实例的某一特征进行测试,根据测试结果,将实例分配到其子节点;这时,每一个子结点对应着该特征的一个取值。如此递归地对实例进行测试并分配,直至达到叶结点。最后将实例分配到叶结点的类中。

实验内容

决策树模型的基本原理

决策树模型简介

决策树模型的建树依据

决策树模型的代码实现

决策树模型既可以做分类分析(即预测分类变量值),也可以做回归分析(即预测连续变量值),分别对应的模型为分类决策树模型(DecisionTreeClassifier)及回归决策树模型(DecisionTreeRegressor)。

1. 分类决策树模型(DecisionTreeClassifier)

from sklearn.tree import DecisionTreeClassifier
X = [[1, 2], [3, 4], [5, 6], [7, 8], [9, 10]]
y = [1, 0, 0, 1, 1]

model = DecisionTreeClassifier(random_state=0)
model.fit(X, y)

print(model.predict([[5, 5]]))
[0]

如果要同时预测多个数据,则可以写成如下形式:

print(model.predict([[5, 5], [7, 7], [9, 9]]))
[0 0 1]

补充知识点:决策树可视化(供感兴趣的读者参考)

通过graphviz插件进行决策树可视化,graphviz插件的使用教程可以查看该文档:https://shimo.im/docs/Dcgw8H6WxgWrc8hq/

# 1.如果不用显示中文,那么通过如下代码即可。安装graphviz稍微有些麻烦,可以参考上面的参考链接。
from sklearn.tree import export_graphviz
import graphviz

import os  # 以下两行是环境变量配置,运行一次即可,相关知识点可以参考5.2.3节
os.environ['PATH'] = os.pathsep + r'C:\Program Files (x86)\Graphviz2.38\bin'

dot_data = export_graphviz(model, out_file=None, class_names=['0', '1'])
graph = graphviz.Source(dot_data)
graph  # 通过graph.render('决策树可视化')可在代码所在文件夹生成决策树可视化PDF文件


决策树回归树图 决策树回归模型_决策树


补充知识点:random_state参数的作用解释

from sklearn.tree import DecisionTreeClassifier
X = [[1, 2], [3, 4], [5, 6], [7, 8], [9, 10]]
y = [1, 0, 0, 1, 1]

model = DecisionTreeClassifier()  # 不设置random_state参数
model.fit(X, y)

# 生成可视化结果
dot_data = export_graphviz(model, out_file=None, class_names=['0', '1'])
graph = graphviz.Source(dot_data)
graph


决策树回归树图 决策树回归模型_决策树_02

from sklearn.tree import DecisionTreeClassifier
X = [[1, 2], [3, 4], [5, 6], [7, 8], [9, 10]]
y = [1, 0, 0, 1, 1]

model = DecisionTreeClassifier()  # 不设置random_state参数
model.fit(X, y)

# 生成可视化结果
dot_data = export_graphviz(model, out_file=None, class_names=['0', '1'])
graph = graphviz.Source(dot_data)
graph


决策树回归树图 决策树回归模型_结点_03

可以看到它们的节点划分方式是不同的,这样会导致同样的数据的预测结果有所不同,例如数据[7, 7]在左边的决策树中会被预测为类别0,而在右边的决策树中会被预测为类别1。

此时有的读者就会有疑问了,为什么模型训练后会产生两颗不同的树呢,哪棵树是正确的呢?其实两颗树都是正确的,出现这种情况的原因,是因为根据“X[1]<=7”或者“X[0]<=6”进行节点划分时产生的基尼系数下降是一样的(都是0.48 - (0.60.444 + 0.40) = 0.2136),所以无论以哪种形式进行节点划分都是合理的。产生这一现象的原因大程度是因为数据量较少所以容易产生不同划分方式产生的基尼系数下降是一样的情况,当数据量较大时出现该现象的几率则较小。

总的来说,对于同一个模型,不同的划分方式可能会导致最后的预测结果会有所不同,设置random_state参数(可以设置成0,也可以设置成1或123等任意数字)则能保证每次的划分方式都是一致的,使得每次运行的结果相同。这个概念对于初学者来说还是挺重要的,因为初学者往往会发现怎么每次运行同一个模型出来的结果都不一样,从而一头雾水,如果出现这种情况,那么设置一下random_state参数即可。

2. 回归决策树模型(DecisionTreeRegressor)

from sklearn.tree import DecisionTreeRegressor
X = [[1, 2], [3, 4], [5, 6], [7, 8], [9, 10]]
y = [1, 2, 3, 4, 5]

model = DecisionTreeRegressor(max_depth=2, random_state=0)
model.fit(X, y)

print(model.predict([[9, 9]]))
[4.5]
# 生成可视化结果
dot_data = export_graphviz(model, out_file=None)  # 回归决策树就没有class分类参数了
graph = graphviz.Source(dot_data)
graph



决策树回归树图 决策树回归模型_决策树_04

案例实战:员工离职预测模型搭建

模型搭建

1. 数据读取与预处理

首先读取员工信息以及其交易离职表现,即是否离职记录,代码如下:

import pandas as pd
df = pd.read_excel('员工离职预测模型.xlsx')
df.head()



工资

满意度

考核得分

工程数量

月工时

工龄

离职

0


3.8

0.53

2

157

3

1

1


8.0

0.86

5

262

6

1

2


1.1

0.88

7

272

4

1

3


7.2

0.87

5

223

5

1

4


3.7

0.52

2

159

3

1

处理文本内容,代码如下:

df = df.replace({'工资': {'低': 0, '中': 1, '高': 2}})
df.head()



工资

满意度

考核得分

工程数量

月工时

工龄

离职

0

0

3.8

0.53

2

157

3

1

1

1

8.0

0.86

5

262

6

1

2

1

1.1

0.88

7

272

4

1

3

0

7.2

0.87

5

223

5

1

4

0

3.7

0.52

2

159

3

1

2. 提取特征变量和目标变量

X = df.drop(columns='离职') 
y = df['离职']

3. 划分训练集和测试集

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)
X_train



工资

满意度

考核得分

工程数量

月工时

工龄

3553

0

7.3

0.93

5

162

4

2112

0

4.3

0.52

2

160

3

1794

0

3.8

0.51

2

159

3

13886

0

6.3

0.71

4

244

2

11251

1

8.8

0.71

5

219

2

...

...

...

...

...

...

...

5218

1

6.3

0.80

4

256

4

12252

0

9.2

0.76

5

132

3

1346

0

7.3

0.95

4

223

6

11646

1

8.5

0.76

3

197

5

3582

1

5.6

0.58

4

258

3

12000 rows × 6 columns

4. 模型训练及搭建

from sklearn.tree import DecisionTreeClassifier
model = DecisionTreeClassifier(max_depth=3, random_state=123) 
model.fit(X_train, y_train)
DecisionTreeClassifier(max_depth=3, random_state=123)

上述模型搭建代码汇总

# 1.读取数据与简单预处理
import pandas as pd
df = pd.read_excel('员工离职预测模型.xlsx')
df = df.replace({'工资': {'低': 0, '中': 1, '高': 2}})

# 2.提取特征变量和目标变量
X = df.drop(columns='离职') 
y = df['离职']   

# 3.划分训练集和测试集
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

# 4.模型训练及搭建
from sklearn.tree import DecisionTreeClassifier
model = DecisionTreeClassifier(max_depth=3, random_state=123)
model.fit(X_train, y_train)
DecisionTreeClassifier(max_depth=3, random_state=123)

模型预测及评估

1. 直接预测是否离职

y_pred = model.predict(X_test)
print(y_pred[0:100])
[0 0 1 0 0 0 1 0 0 0 0 0 0 0 0 1 0 1 0 0 0 0 0 0 0 0 0 1 1 0 1 0 1 0 0 1 0
 1 0 0 0 0 0 1 0 0 0 0 0 0 0 1 0 0 1 0 0 1 0 0 0 1 0 1 1 0 0 0 0 0 0 0 0 0
 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 1 0 0 0 0 1 1 1 0 0 0]
# 通过构造DataFrame进行对比
a = pd.DataFrame()  # 创建一个空DataFrame 
a['预测值'] = list(y_pred)
a['实际值'] = list(y_test)
a.head()



预测值

实际值

0

0

0

1

0

0

2

1

1

3

0

0

4

0

0

# 如果要查看整体的预测准确度,可以采用如下代码:
from sklearn.metrics import accuracy_score
score = accuracy_score(y_pred, y_test)
print(score)
0.9573333333333334
# 或者用模型自带的score函数查看预测准确度
model.score(X_test, y_test)
0.9573333333333334

2. 预测不离职&离职概率

其实分类决策树模型本质预测的并不是准确的0或1的分类,而是预测其属于某一分类的概率,可以通过如下代码查看预测属于各个分类的概率:

y_pred_proba = model.predict_proba(X_test)
print(y_pred_proba[0:5])
[[0.98526077 0.01473923]
 [0.98526077 0.01473923]
 [0.28600613 0.71399387]
 [0.98526077 0.01473923]
 [0.92283214 0.07716786]]
b = pd.DataFrame(y_pred_proba, columns=['不离职概率', '离职概率']) 
b.head()



不离职概率

离职概率

0

0.985261

0.014739

1

0.985261

0.014739

2

0.286006

0.713994

3

0.985261

0.014739

4

0.922832

0.077168

如果想查看离职概率,即查看y_pred_proba的第二列,可以采用如下代码,这个是二维数组选取列的方法,其中逗号前的“:”表示所有行,逗号后面的数字1则表示第二列,如果把数字1改成数字0,则提取第一列不离职概率。

y_pred_proba[:,1]
array([0.01473923, 0.01473923, 0.71399387, ..., 0.01473923, 0.94594595,
       0.01473923])

3. 模型预测效果评估

在Python实现上,通过4.3节讲过的代码就可以求出在不同阈值下的命中率(TPR)以及假警报率(FPR)的值,从而可以绘制ROC曲线。

from sklearn.metrics import roc_curve
fpr, tpr, thres = roc_curve(y_test, y_pred_proba[:,1])

通过5.3节相关代码可以查看不同阈值下的假警报率和命中率,代码如下:

a = pd.DataFrame()  # 创建一个空DataFrame 
a['阈值'] = list(thres)
a['假警报率'] = list(fpr)
a['命中率'] = list(tpr)
a



阈值

假警报率

命中率

0

2.000000

0.000000

0.000000

1

1.000000

0.000000

0.247110

2

0.945946

0.008232

0.677746

3

0.713994

0.038128

0.942197

4

0.077168

0.159879

0.969653

5

0.059406

0.171577

0.972543

6

0.045763

0.240035

0.976879

7

0.014739

1.000000

1.000000

已知了不同阈值下的假警报率和命中率,可通过matplotlib库可绘制ROC曲线,代码如下:

%matplotlib inline
import matplotlib.pyplot as plt
plt.plot(fpr, tpr)
plt.show()



决策树回归树图 决策树回归模型_机器学习_05

通过如下代码则可以快速求出模型的AUC值:

from sklearn.metrics import roc_auc_score
score = roc_auc_score(y_test, y_pred_proba[:,1])
print(score)
0.9736722483245008

4. 特征重要性评估

model.feature_importances_
array([0.        , 0.59810862, 0.14007392, 0.10638659, 0.00456495,
       0.15086592])
# 通过DataFrame进行展示,并根据重要性进行倒序排列
features = X.columns  # 获取特征名称
importances = model.feature_importances_  # 获取特征重要性

# 通过二维表格形式显示
importances_df = pd.DataFrame()
importances_df['特征名称'] = features
importances_df['特征重要性'] = importances
importances_df.sort_values('特征重要性', ascending=False)



特征名称

特征重要性

1

满意度

0.598109

5

工龄

0.150866

2

考核得分

0.140074

3

工程数量

0.106387

4

月工时

0.004565

0

工资

0.000000

决策树模型可视化呈现及决策树要点理解

通过graphviz插件进行决策树可视化,graphviz插件的更详细的使用教程可以查看该文档:https://shimo.im/docs/Dcgw8H6WxgWrc8hq/

# 1.如果不用显示中文,那么通过如下代码即可:
# !pip3 install pygraphviz
from sklearn.tree import export_graphviz
import graphviz
import os  # 以下这两行是手动进行环境变量配置,防止在本机环境的变量部署失败
os.environ['PATH'] = os.pathsep + r'C:\Program Files (x86)\Graphviz2.38\bin'

dot_data = export_graphviz(model, out_file=None, class_names=['0', '1'])
graph = graphviz.Source(dot_data)

graph.render("result")  # 导出成PDF文件
print('可视化文件result.pdf已经保存在代码所在文件夹!')
可视化文件result.pdf已经保存在代码所在文件夹!
graph  # 在Jupyter Notebook中可以直接输入变量名查看可视化图片


决策树回归树图 决策树回归模型_决策树_06


# 添加名称(feature_names)和填充颜色(filled=True)
dot_data = export_graphviz(model, out_file=None, feature_names=['income', 'satisfication', 'score', 'project_num', 'hours', 'year'], class_names=['0', '1'], filled=True)  
graph = graphviz.Source(dot_data)

graph


决策树回归树图 决策树回归模型_机器学习_07


# 2.如果想显示中文,需要使用如下代码
from sklearn.tree import export_graphviz
import graphviz
import os  # 以下这两行是手动进行环境变量配置,防止在本机环境的变量部署失败
os.environ['PATH'] = os.pathsep + r'C:\Program Files (x86)\Graphviz2.38\bin'

# 生成dot_data
dot_data = export_graphviz(model, out_file=None, feature_names=X_train.columns, class_names=['不离职', '离职'], rounded=True, filled=True)

# 将生成的dot_data内容导入到txt文件中
f = open('dot_data.txt', 'w')
f.write(dot_data)
f.close()

# 修改字体设置,避免中文乱码!
import re
f_old = open('dot_data.txt', 'r')
f_new = open('dot_data_new.txt', 'w', encoding='utf-8')
for line in f_old:
    if 'fontname' in line:
        font_re = 'fontname=(.*?)]'
        old_font = re.findall(font_re, line)[0]
        line = line.replace(old_font, 'SimHei')
    f_new.write(line)
f_old.close()
f_new.close()

# 以PNG的图片形式存储生成的可视化文件
os.system('dot -Tpng dot_data_new.txt -o 决策树模型.png')  
print('决策树模型.png已经保存在代码所在文件夹!')

# 以PDF的形式存储生成的可视化文件
os.system('dot -Tpdf dot_data_new.txt -o 决策树模型.pdf')  
print('决策树模型.pdf已经保存在代码所在文件夹!')
决策树模型.png已经保存在代码所在文件夹!
决策树模型.pdf已经保存在代码所在文件夹!

此时可以在代码所在文件夹中查看生成的可视化文件

参数调优: K折交叉验证与GridSearch网格搜索

前情提要 - 5.2节的模型搭建代码

# 1.读取数据与简单预处理
import pandas as pd
df = pd.read_excel('员工离职预测模型.xlsx')
df = df.replace({'工资': {'低': 0, '中': 1, '高': 2}})

# 2.提取特征变量和目标变量
X = df.drop(columns='离职') 
y = df['离职']

# 3.划分训练集和测试集
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=123)

# 4.模型训练及搭建
from sklearn.tree import DecisionTreeClassifier
model = DecisionTreeClassifier(max_depth=3, random_state=123)
model.fit(X_train, y_train)
DecisionTreeClassifier(max_depth=3, random_state=123)

K折交叉验证

from sklearn.model_selection import cross_val_score
acc = cross_val_score(model, X, y, cv=5)
acc
array([0.96666667, 0.96066667, 0.959     , 0.96233333, 0.91366667])
acc.mean()
0.9524666666666667
from sklearn.model_selection import cross_val_score
acc = cross_val_score(model, X, y, scoring='roc_auc', cv=5)
acc
array([0.97146884, 0.9674637 , 0.96641351, 0.97047305, 0.95030156])
acc.mean()
0.9652241309284616

GridSearch网格搜索

1. 单参数的参数调优

from sklearn.model_selection import GridSearchCV  # 网格搜索合适的超参数

# 指定参数k的范围
parameters = {'max_depth': [3, 5, 7, 9, 11]}
# 构建决策树分类器
model = DecisionTreeClassifier()  # 这里因为要进行参数调优,所以不需要传入固定的参数了

# 网格搜索
grid_search = GridSearchCV(model, parameters, scoring='roc_auc', cv=5)   # cv=5表示交叉验证5次,默认值为3;scoring='roc_auc'表示通过ROC曲线的AUC值来进行评分,默认通过准确度评分
grid_search.fit(X_train, y_train)

# 输出参数的最优值
grid_search.best_params_
{'max_depth': 7}
# 通过取消如下代码的注释可以查看GridSearchCV函数的官方介绍
# GridSearchCV?

补充知识点:批量生成调参所需数据

import numpy as np
parameters = {'max_depth': np.arange(1, 10, 2)}

2.参数调优的效果检验

根据max_depth=7来重新搭建模型,并进行检测

(1) 查看新模型准确度

# 根据max_depth=7来重新搭建模型
model = DecisionTreeClassifier(max_depth=7)  # 这个max_depth参数是可以调节的,之后讲
model.fit(X_train, y_train) 

# 查看整体预测准确度
y_pred = model.predict(X_test)
from sklearn.metrics import accuracy_score
score = accuracy_score(y_pred, y_test)
print(score)
0.982

原来准确度评分score为0.957,现在为0.982,的确有所提升

(2) 查看新模型的ROC曲线和AUC值

# 查看新的AUC值
# 预测不违约&违约概率
y_pred_proba = model.predict_proba(X_test)
y_pred_proba[:,1]  # 如果想单纯的查看违约概率,即查看y_pred_proba的第二列

# 绘制ROC曲线,计算AUC值
from sklearn.metrics import roc_curve
fpr, tpr, thres = roc_curve(y_test, y_pred_proba[:,1])

# 绘制ROC曲线
import matplotlib.pyplot as plt
plt.plot(fpr, tpr)
plt.show()
<Figure size 640x480 with 1 Axes>
# 计算AUC值
from sklearn.metrics import roc_auc_score
score = roc_auc_score(y_test, y_pred_proba[:,1])
print(score)
0.9877953411606777

总结:原来获得的AUC值为0.9736,现在获得的AUC值为0.9877,的确提高了模型的预测水平

补充知识点: 决策树深度增加时特征重要性的改变

# 查看此时的变量重要性
model.feature_importances_
array([0.00059222, 0.52656655, 0.13201648, 0.1116004 , 0.07759157,
       0.15163278])
# 一一对应
features = X.columns
importances = model.feature_importances_

# 通过表格形式显示
importances_df = pd.DataFrame()  # 创建空二维表格,为之后准备
importances_df['特征名称'] = features
importances_df['特征重要性'] = importances

importances_df.sort_values('特征重要性', ascending=False)



特征名称

特征重要性

1

满意度

0.526567

5

工龄

0.151633

2

考核得分

0.132016

3

工程数量

0.111600

4

月工时

0.077592

0

工资

0.000592

决策树模型还有些别的超参数,如下所示:

下面是分类决策树模型DecisionTreeClassifier()模型常用的一些超参数及它们的解释:

  1. criterion:特征选择标准,取值为"entropy"信息熵和"gini"基尼系数,默认选择"gini"。
  2. splitter:取值为"best"和"random","best"在特征的所有划分点中找出最优的划分点,适合样本量不大的情况,“random"随机地在部分划分点中找局部最优的划分点,适合样本量非常大的情况,默认选择"best”。
  3. max_depth:决策树最大深度,取值为int或None,一般数据或特征比较少的时候可以不设置,如果数据或特征比较多时,可以设置最大深度进行限制。默认取‘None’。
  4. min_samples_split:子节点往下划分所需的最小样本数,默认取2,如果子节点中的样本数小于该值则停止分裂。
  5. min_samples_leaf:叶子节点的最少样本数,默认取1,如果小于该数值,该叶子节点会和兄弟节点一起被剪枝(即剔除该叶子节点和其兄弟节点,并停止分裂)。
  6. min_weight_fraction_leaf:叶子节点最小的样本权重和,默认取0,即不考虑权重问题,如果小于该数值,该叶子节点会和兄弟节点一起被剪枝(即剔除该叶子节点和其兄弟节点,并停止分裂)。如果较多样本有缺失值或者样本的分布类别偏差很大,则需考虑样本权重问题。
  7. max_features:在划分节点时所考虑的特征值数量的最大值,默认取None,可以传入int型或float型数据。如果是float型数据,表示百分数。
  8. max_leaf_nodes:最大叶子节点数,默认取None,可以传入int型数据。
  9. class_weight:指定类别权重,默认取None,可以取"balanced",代表样本量少的类别所对应的样本权重更高,也可以传入字典指定权重。该参数主要是为防止训练集某些类别的样本过多,导致训练的决策树过于偏向这些类别。除了此处指定class_weight,还可以使用过采样和欠采样的方法处理样本类别不平衡的问题,过采样和欠采样将在第十一章:数据预处理讲解。
  10. random_state:当数据量较大,或特征变量较多时,可能在某个节点划分时,会碰上两个特征变量的信息熵增益或者基尼系数减少量是一样的情况,那么此时决策树模型默认是随机从中选一个特征变量进行划分,这样可能会导致每次运行程序后生成的决策树不太一致。如果设定random_state参数(如设置为123)可以保证每次运行代码时,各个节点的分裂结果都是一致的,这在特征变量较多,树的深度较深的时候较为重要。

3. 多参数调优

from sklearn.model_selection import GridSearchCV

# 指定决策树分类器中各个参数的范围
parameters = {'max_depth': [5, 7, 9, 11, 13], 'criterion':['gini', 'entropy'], 'min_samples_split':[5, 7, 9, 11, 13, 15]}
# 构建决策树分类器
model = DecisionTreeClassifier()  # 这里因为要进行参数调优,所以不需要传入固定的参数了

# 网格搜索
grid_search = GridSearchCV(model, parameters, scoring='roc_auc', cv=5)
grid_search.fit(X_train, y_train)

# 获得参数的最优值
grid_search.best_params_
{'criterion': 'entropy', 'max_depth': 11, 'min_samples_split': 13}
# 根据多参数调优的结果来重新搭建模型
model = DecisionTreeClassifier(criterion='entropy', max_depth=11, min_samples_split=13)
model.fit(X_train, y_train) 

# 查看整体预测准确度
y_pred = model.predict(X_test)
from sklearn.metrics import accuracy_score
score = accuracy_score(y_pred, y_test)
print(score)
0.9823333333333333
# 查看新的AUC值
# 预测不违约&违约概率
y_pred_proba = model.predict_proba(X_test)
y_pred_proba[:,1]  # 如果想单纯的查看违约概率,即查看y_pred_proba的第二列

score = roc_auc_score(y_test, y_pred_proba[:,1])
print(score)
0.9890907850051593

总结:这里多参数调优后发现,模型效果的确有所优化

注意点1:多参数调优和分别单参数调优的区别

多参数调优和单参数分别调优是有区别的,比如有的读者为了省事,对上面的3个参数进行3次单独的单参数调优,然后将结果汇总,这样的做法其实是不严谨的。因为在进行单参数调优的时候,是默认其他参数取默认值的,那么该参数和其他参数都不取默认值的情况就没有考虑进来,也即忽略了多个参数对模型的组合影响。以上面的代码示例来说,使用多参数调优时,它是526=60种组合可能,而如果是进行3次单参数调优,则只是5+2+6=13种组合可能。
因此,如果只需要调节一个参数,那么可以使用单参数调优,如果需要调节多个参数,则推荐使用多参数调优。

注意点2:参数取值是给定范围的边界

另外一点需要需要注意的是,如果使用GridSearchCV()方法所得到的参数取值是给定范围的边界,那么有可能存在范围以外的取值使得模型效果更好,因此需要我们额外增加范围,继续调参。举例来说,倘若上述代码中获得的最佳max_depth值为设定的最大值13,那么实际真正合适的max_depth可能更大,此时便需要将搜索网格重新调整,如将max_depth的搜索范围变成[9, 11, 13, 15, 17],再重新参数调优。

拓展研究

决策树

mglearn.plots.plot_animal_tree()

决策树回归树图 决策树回归模型_结点_08


在这张图中,树的每一个结点代表一个问题或一个包含答案的终结点(也叫叶结点

防止过拟合有两种常见的策略:一种是及早停止树的生长,也叫预剪枝;另一种是先构造树,但随后删除或折叠信息量很少的结点,也叫后剪枝。

决策树集成

集成是合并多个机器学习模型来构建更强大模型的方法。
已证明有两种集成模型对大量分类和回归 的数据集都是有效的,二者都以决策树为基础,分别是随机森林梯度提升决策树

随机森林

构造随机森林
分析随机森林
下面将5棵树组成的随机森林应用到two_moons数据集

from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import make_moons

X,y=make_moons(n_samples=100,noise=0.25,random_state=3)
X_train,X_test,y_train,y_test=train_test_split(X,y,stratify=y,random_state=42)

forest=RandomForestClassifier(n_estimators=5,random_state=2)
forest.fit(X_train,y_train)

作为随机森林的一部分,树被保存在estimator_属性中。

fig,axes=plt.subplots(2,3,figsize=(20,10))
for i,(ax,tree) in enumerate(zip(axes.ravel(),forest.estimators_)):
    ax.set_title("Tree{}".format(i))
    mglearn.plots.plot_tree_partition(X_train,y_train,tree,ax=ax)
mglearn.plots.plot_2d_separator(forest,X_train,fill=True,ax=axes[-1,1],alpha=.4)
axes[-1,1].set_title("Random Forest")
mglearn.discrete_scatter(X_train[:,0],X_train[:,1],y_train)

决策树回归树图 决策树回归模型_数据挖掘_09

def plot_feature_importances_cancer(model):
     n_features=cancer.data.shape[1]
     plt.barh(range(n_features),model.feature_importances_,align='center')
     plt.yticks(np.arange(n_features),cancer.feature_names)
     plt.xlabel("Feature importance")
     plt.ylabel("Feature")


from sklearn.datasets import load_breast_cancer
cancer=load_breast_cancer()
X_train,X_test,y_train,y_test=train_test_split(cancer.data,cancer.target,random_state=0)
forest= RandomForestClassifier(n_estimators=100,random_state=0)
forest.fit(X_train,y_train)

plot_feature_importances_cancer(forest)

拟合乳腺癌数据集得到的随机森林的特征重要性。

决策树回归树图 决策树回归模型_决策树回归树图_10

梯度提升 回归树(梯度提升机)

梯度提升回归树是另一种集成方法,通过合并多个决策树来构建一个更强大的模型。

梯度提升背后的主要思想是合并许多简单的模型(在这个语境中叫做弱学习器),比如深度较小的树。每棵树只能对部分数据做出好的预测,因此,添加的树越来越多,可以不断提高迭代性能。

除了预剪枝与集成中树的数量外,梯度提升的另一个重要参数是learning_rate(学习率),用以控制每棵树纠正前一棵树的错误的强度。

心得体会