银行数据集

我们的数据集描述

该数据与银行机构的直接营销活动相关,营销活动基于电话。通常,需要与同一客户的多个联系人联系,以便访问产品(银行定期存款)是否会(“是”)或不会(“否”)订阅。
y - 客户是否订阅了定期存款?(​​二进制​​:'是','否')

我们的目标是选择最好的​​回归模型​​来让客户订阅或不订阅定期存款。我们将使用如下算法:

  • 线性回归
  • 随机森林回归
  • KNN近邻
  • 决策树
  • 高斯朴素贝叶斯
  • 支持向量机

选择最佳模型的决定将基于:

  • 准确性
  • 过采样

数据准备

在本节中,我们加载数据。我们的数据有 45211 个变量。

输入变量:
银行客户数据
1 - 年龄(数字)
2 - 工作:工作类型(分类:'行政'、'蓝领'、'企业家'、'女佣'、'管理'、'退休'、'自雇'、'服务'、'学生'、'技术员'、'失业'、'未知')
3 - 婚姻:婚姻状况(分类:'离婚'、'已婚'、'单身'、'不详';注:'离婚'指离婚或丧偶)。
4 - 教育(分类:'基础4年'、'基础6年'、'基础9年'、'高中'、'文盲'、'专业课程'、'大学学位'、'未知')
5 - 违约:是否有违约的信贷?(分类: '没有', '有', '未知')
6-住房:是否有住房贷款?(分类: '否', '是', '未知')
7 - 贷款:有个人贷款吗?
8 - contact: 联系通信类型(分类:'手机', '电话')。
9 - 月:最后一次联系的年份月份(分类:'一月', '二月', '三月', ..., '十一月', '十二月')
10 - day_of_week:最后一次联系的星期(分类:'mon', 'tue', 'wed', 'thu', 'fri')
11 - 持续时间:最后一次联系的持续时间,以秒为单位(数字)。
12 - 活动:在这个活动期间为这个客户进行的接触次数(数字,包括最后一次接触)。
13 - pdays: 在上次活动中最后一次与客户联系后的天数(数字,999表示之前没有与客户联系)。
14 - 以前:在这次活动之前,为这个客户进行的接触次数(数字)。
15 - 结果:上次营销活动的结果(分类:"失败"、"不存在"、"成功")。
社会和经济背景属性
16 - emp.var.rate:就业变化率--季度指标(数值)。
17 - cons.price.idx:消费者价格指数--月度指标(数值)。
18 - cons.conf.idx:消费者信心指数--月度指标(数字)。
19 - euribor3m:银行3个月利率--每日指标(数值)
20 - nr.employed: 雇员人数 - 季度指标(数字)

输出变量(所需目标):

  •  y -  客户是否认购了定期存款?(二进制: '是', '否')
data.head(5)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林

我们的下一步是查看变量的形式以及是否存在缺失值的问题。

  1.  df1 = data.dtypes
  2.  df1

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_02

  1.  df2 = data.isnull().sum()
  2.  df2

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_03

我们的下一步是计算所有变量的值。

data['y'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_04

data['job'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_05

data['marital'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_06

data['education'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_07

data['housing'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_08

data['loan'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_09

data['contact'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_10

data['month'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_11

data['poutcome'].value_counts()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_12

描述性统计

数值总结

data.head(5)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_13

改变因变量 y 的值。代替 no - 0 和代替 yes - 1。

data['y'] = data['y'].map({'no': 0, 'yes': 1})
data.columns

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_14

对于我们的每个变量,我们绘制一个箱线图来查看是否有任何可见的异常值。

  1.  plt.figure(figsize=[10,25])
  2.  ax = plt.subplot(611)
  3.  sns.boxplot(data['age'],orient="v")

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_15

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_16

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_17

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_18

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_19

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_20

我们可以看到许多可见的异常值,尤其是在 balance 、 campaign 、 pdays 的情况下。在 pdays ,我们可以看到很多变量都在分位数范围之外。这个变量是一个特例,它被解码为 -1,这就是我们的图看起来像这样的原因。在表示变量之前的箱线图的情况下,它表示在此活动之前执行的联系数量,在这种情况下,我们还可以注意到许多超出分位数范围的值。

直方图

我们的下一步是查看连续变量的分布和直方图
我们可以看到没有一个变量具有正态分布。

  1.  plt.figure(figsize=[10,20])
  2.  plt.subplot(611)
  3.  g = sns.distplot(data["age"], color="r")

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_21

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_22

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_23

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_24

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_25

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_26

我们的下一步是查看因变量 y 与每个变量或连续变量之间的关系。

  1.  g = sns.FacetGrid(data, col='y',size=4)
  2.  g.map

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_27

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_28

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_29

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_30

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_31

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_32

从这些变量中我们可以得到的最有趣的观察是,大多数说不的人年龄在20-40岁之间,在月底的第20天,大多数人也拒绝了这个提议。
 

分类总结

我们制作仅包含分类变量的数据子集,以便更轻松地绘制箱线图

  1.  data_categorical = data[['job',
  2.   'marital',
  3.   'education',
  4.   'default', 'housing',
  5.   'loan','month', 'y']]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_33

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_34

 

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_35

我们还查看了分类变量,看看是否有一些有趣的特征
从上面的条形图中可以看出,最有趣的结果来自变量:婚姻状况、教育和工作。
从代表婚姻状况的图表来看,大多数人都已婚。
正如我们在代表教育的图表上看到的那样 - 最大的是接受过中等教育的人数。
在约伯的情况下,我们可以看到大多数人都有蓝领和管理工作。

我们还想在马赛克图上查看我们的分类变量与 y 变量之间的关系。

plt.rcParams['font.size'] = 16.0

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_36

正如我们所见,大多数人都拒绝了该提议。就地位而言,已婚的人说“不”最多。

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_37

在可变违约的情况下,大多数没有违约信用的人也拒绝了该提案。

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_38

大多数有住房贷款的人也拒绝了该提议。

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_39

大多数没有贷款的人拒绝了这个提议。

数据挖掘

data.head(5)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_40

我们想更深入地研究我们的变量,看看我们是否可以用它们做更多的事情。

我们的下一步是使用 WOE 分析。

  1.  finv, IV = datars(data,data.y)
  2.  IV

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_41

基于对我们有用的 WOE 分析变量是:pdays、previous、job、housing、balance、month、duration、poutcome、contact。
在下一步中,我们决定根据 WOE 结果和变量的先前结果删除无用​​的列。
我们删除的其中一个列是 poutcome,尽管它的 WOE 很高,但我们决定删除它,因为从 prevois 分析中我们看到它有许多未知的观察结果。
在可变持续时间的情况下,我们也可以看到WOE相当大,甚至可以说这个结果有点可疑。我们决定根据 WOE 结果放弃它,因为我们的模型应该根据过去的数据说明是否建议给某个人打电话。
在可变接触的情况下,我们放弃了它,因为对我们来说,接触形式在我们的模型中没有用。
我们还删除了变量 day 因为它对我们没有用,因为这个变量代表天数,而该变量的 WOE 非常小。我们删除的最后一个变量是变量 pdays,尽管这个变量 WOE 的结果非常好,但它对我们来说并不是一个有用的变量。

我们分析中剩下的列:

 

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_42

特征选择和工程

要执行我们的算法,我们首先需要将字符串更改为二进制变量。

  1.   
  2.  data = pd.get_dummies(data=data, columns = ['job', 'marital', 'education' , 'month'], \
  3.  prefix = ['job', 'marital', 'education' , 'month'])

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_43

我们更改了列的名称。

data.head(5)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_44

创建虚拟变量后,我们进行了 Pearson 相关。

  1.   
  2.   
  3.  age = pearsonr(data['age'], data['y'])

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_45

sns.heatmap(corr

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_46

我们选择了数字列来检查相关性。正如我们所看到的,没有相关性。

我们查看因变量和连续变量之间的关系。

  1.   
  2.  pylab.show()

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_47

交叉验证

经过所有准备工作,我们终于可以将数据集拆分为训练集和测试集。

算法的实现

逻辑回归

  1.   
  2.  K=5
  3.  kf = KFold(n_splits=K, shuffle=True)
  4.   
  5.  logreg = LogisticRegression()
[[7872   93]
[ 992 86]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_48

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_49

[[7919   81]
[ 956 86]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_50

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_51

[[7952   60]
[ 971 59]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_52

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_53

[[7871   82]
[1024 65]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_54

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_55

[[7923   69]
[ 975 75]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_56

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_57

决策树

  1.   
  2.  dt2 = tree.DecisionTreeClassifier(random_state=1, max_depth=2)
[[7988    0]
[1055 0]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_58

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_59

[[7986    0]
[1056 0]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_60

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_61

[[7920   30]
[1061 31]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_62

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_63

[[8021    0]
[1021 0]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_64

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_65

[[7938   39]
[1039 26]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_66

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_67

随机森林

  1.   
  2.  random_forest = RandomForestClassifier
[[7812  183]
[ 891 157]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_68

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_69

[[7825  183]
[ 870 164]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_70

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_71

[[7774  184]
[ 915 169]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_72

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_73

[[7770  177]
[ 912 183]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_74

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_75

[[7818  196]
[ 866 162]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_76

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_77

KNN近邻

  1.   
  2.  classifier = KNeighborsClassifier(n_neighbors =13,metric = 'minkowski' , p=2)
  3.   
  4.  print("Mean accuracy: ",accuracyknn/K)
  5.  print("The best AUC: ", bestaucknn)
[[7952   30]
[1046 15]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_78

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_79

[[7987   30]
[1010 15]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_80

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_81

[[7989   23]
[1017 13]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_82

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_83

[[7920   22]
[1083 17]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_84

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_85

[[7948   21]
[1052 21]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_86

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_87

高斯朴素贝叶斯

  1.   
  2.  kf = KFold(n_splits=K, shuffle=True)
  3.   
  4.  gaussian = GaussianNB()
[[7340  690]
[ 682 331]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_88

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_89

[[7321  633]
[ 699 389]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_90

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_91

[[7291  672]
[ 693 386]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_92

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_93

[[7300  659]
[ 714 369]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_94

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_95

[[7327  689]
[ 682 344]]

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_96

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_97

1.  models = pd.DataFrame({
2. 'Model': ['KNN', 'Logistic Regression',
3. 'Naive Bayes', 'Decision Tree','Random Forest'],
4. 'Score': [ accuracyknn/K, accuracylogreg/K,
5. accuracygnb/K, accuracydt/K, accuracyrf/K],
6. 'BestAUC': [bestaucknn,bestauclogreg,bestaucgnb,
7. bestaucdt,bestaucrf]})

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_98

我们看到根据 AUC 值的最佳模型是朴素贝叶斯我们不应该太在意最低的 R2 分数,因为数据非常不平衡(很容易预测 y=0)。在混淆矩阵中,我们看到它预测了漂亮的价值真正值和负值。令我们惊讶的是,决策树的 AUC 约为 50%。

欠采样

我们尝试对变量 y=0 进行欠采样

  1.   
  2.  gTrain, gValid = train_test_split

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_99

逻辑回归

predsTrain = logreg.predict(gTrainUrandom)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_100

predsTrain = logreg.predict(gTrain20Urandom)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_101

predsTrain = logreg.predict(gTrrandom)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_102

决策树

  1.   
  2.  print("Train AUC:", metrics.roc_auc_score(ygTrds))

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_103

随机森林

  1.   
  2.  print("Train AUC:", metrics.roc_auc_score(ygTr, predsTrain),
  3.  "Valid AUC:", metrics.roc_auc_score(ygVd, preds))

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_104

KNN近邻

  1.   
  2.  print("Train AUC:", metrics.roc_auc_score(ygTrm, predsTrain),
  3.  "Valid AUC:", metrics.roc_auc_score(ygVal10, preds))

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_105

高斯朴素贝叶斯

  1.   
  2.  print("Train AUC:", metrics.roc_auc_score(ygTraom, predsTrain),
  3.  "Valid AUC:", metrics.roc_auc_score(ygid, preds))

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_106

过采样

我们尝试对变量 y=1 进行过采样

  1.  feates = datolist()
  2.  print(feures)
  3.  feaes.remove('y')

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_107

  1.   
  2.  print(gTrainOSM.shape)
(31945, 39)
smt = SMOT
(32345, 39)
smt = SMOT
(32595, 39)
  1.  ygTrain10OSM=gTrain10OSM['y']
  2.  gTrain10OSM=gTrain10OSM.drop(columns=['y'])

逻辑回归

  1.   
  2.  print("Train AUC:", metrics.roc_auc_score(ygTrin10SM, predsTrain),
  3.  "Valid AUC:", metrics.roc_auc_score(ygValid, preds))

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_108

决策树

  1.  dt2.fit(,ygTranOS)
  2.  predsTrain = dtpreict(TrainOSM)
  3.  preds = dt2.predict(gValid)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_随机森林_109

随机森林

  1.  random_forest.fit(rainOSM, ygTranOS)
  2.  predsTrain = random_forest.prect(gTraiOSM)
  3.  p

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_110

KNN近邻

  1.  classifier.fit(granOSM, yTanOSM)
  2.  predsTrain = classifier.predict(gTaiSM)
  3.  preds = classifier.predict(Vaid)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_111

高斯朴素贝叶斯

  1.  gaussian.fit(gTriOM, ygrainM)
  2.  predsTrain = gaussian.predcti)

Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_数据_112

结论

我们看到欠采样和过采样变量 y 对 AUC 没有太大帮助。


Python银行机器学习:回归、随机森林、KNN近邻、决策树、高斯朴素贝叶斯、支持向量机svm分析营销活动数据_决策树_113