在本文中,我们使用了逻辑回归、决策树和随机森林模型来对信用数据集进行分类预测并比较了它们的性能。数据集是

credit=read.csv("german_credit.csv", header = TRUE, sep = ",")

看起来所有变量都是数字变量,但实际上,大多数都是因子变量,

  1.  > str(credit)
  2.  'data.frame': 1000 obs. of 21 variables:
  3.  $ Creditability : int 1 1 1 1 1 1 1 1 1 1 ...
  4.  $ Account.Balance : int 1 1 2 1 1 1 1 1 4 2 ...
  5.  $ Duration : int 18 9 12 12 12 10 8 ...
  6.  $ Purpose : int 2 0 9 0 0 0 0 0 3 3 ...

让我们将分类变量转换为因子变量,

  1.  > F=c(1,2,4,5,7,8,9,10,11,12,13,15,16,17,18,19,20)
  2.  > for(i in F) credit[,i]=as.factor(credit[,i])

现在让我们创建比例为1:2 的训练和测试数据集

  1.  > i_test=sample(1:nrow(credit),size=333)
  2.  > i_calibration=(1:nrow(credit))[-i_test]

我们可以拟合的第一个模型是对选定协变量的逻辑回归

  1.  > LogisticModel <- glm(Creditability ~ Account.Balance + Payment.Status.of.Previous.Credit + Purpose +
  2.  Length.of.current.employment +
  3.  Sex...Marital.Status, family=binomia

基于该模型,可以绘制ROC曲线并计算AUC(在新的验证数据集上)

  1.   
  2.  > AUCLog1=performance(pred, measure = "auc")@y.values[[1]]
  3.  > cat("AUC: ",AUCLog1,"\n")
  4.  AUC: 0.7340997

拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_多分类logistic逻辑回归

一种替代方法是考虑所有解释变量的逻辑回归

  1.  glm(Creditability ~ .,
  2.  + family=binomial,
  3.  + data = credit[i_calibrat

我们可能在这里过拟合,可以在ROC曲线上观察到

  1.   
  2.  > perf <- performance(pred, "tpr", "fpr
  3.  > AUCLog2=performance(pred, measure = "auc")@y.values[[1]]
  4.  > cat("AUC: ",AUCLog2,"\n")
  5.  AUC: 0.7609792

拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_R语言_02

 

与以前的模型相比,此处略有改善,后者仅考虑了五个解释变量。

现在考虑回归树模型(在所有协变量上)

我们可以使用

> prp(ArbreModel,type=2,extra=1)

拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_R语言_03

 

模型的ROC曲线为

  1.  (pred, "tpr", "fpr")
  2.  > plot(perf)
  3.   
  4.  > cat("AUC: ",AUCArbre,"\n")
  5.  AUC: 0.7100323

拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_R语言_04

 

不出所料,与逻辑回归相比,模型性能较低。一个自然的想法是使用随机森林优化。

  1.  > library(randomForest)
  2.  > RF <- randomForest(Creditability ~ .,
  3.  + data = credit[i_calibration,])
  4.  > fitForet <- predict(RF,
  5.   
  6.  > cat("AUC: ",AUCRF,"\n")
  7.  AUC: 0.7682367

拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_机器学习_05

 

在这里,该模型(略)优于逻辑回归。实际上,如果我们创建很多训练/验证样本并比较AUC,平均而言,随机森林的表现要比逻辑回归好,

  1.  > AUCfun=function(i){
  2.  + set.seed(i)
  3.  + i_test=sample(1:nrow(credit),size=333)
  4.  + i_calibration=(1:nrow(credit))[-i_test]
  5.   
  6.   
  7.  + summary(LogisticModel)
  8.  + fitLog <- predict(LogisticModel,type="response",
  9.  + newdata=credit[i_test,])
  10.  + library(ROCR)
  11.  + pred = prediction( fitLog, credit$Creditability[i_test])
  12.   
  13.  + RF <- randomForest(Creditability ~ .,
  14.  + data = credit[i_calibration,])
  15.   
  16.   
  17.  + pred = prediction( fitForet, credit$Creditability[i_test])
  18.   
  19.  + return(c(AUCLog2,AUCRF))
  20.  + }
  21.  > plot(t(A))

 

拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_多分类logistic逻辑回归_06


拓端tecdat|R语言用逻辑回归、决策树和随机森林对信贷数据集进行分类预测_多分类logistic逻辑回归_07