缘起
这篇博客的想法来源于知乎的一个关于多元线性回归的变量选择问题。
从该问题的提问描述,以及回答中看出,很多人在做变量选择时,眼光依然局限于R 2 R2或者Ajusted−R 2 Ajusted−R2,以及P−Value P−Value之中。
记得计量课上,韩老师在讲到Ajusted−R 2 Ajusted−R2时,说他们做模型选择,其实更倾向于采用AIC和BIC等标准来做判断。
而对于P−Value P−Value的滥用与批判,其实已经到了水深火热的地步。
那抛开背景知识不谈,我们做变量选择,可以倚靠哪些神奇的准则和方法?
很多同学可能第一个想到的是:前进法,后退法,向前向后逐步回归。但是,这些方法仍然都是基于P−Value P−Value这一饱受争议的准则。
我们抛开传统的统计学教材,把眼光瞄向统计学习理论,就会发现,其实有大量的模型可供我们选择。
今天,先介绍最基础的方法:lasso。
The lasso的提出
lasso,即Lesat absolute shrinkage and seletion operator.改方法由统计学习领域的执牛耳者Robert Tibshirani于1996年开创。至今为止,这篇文章被引用次数已达14243次,这可比在知乎攒万赞的难度不知高到哪里去了:)据说,在学术领域,被引用次数能达到几十次已经可以引以为傲。经过将近20年的发展,这个方法养活了一大群人,同时也发展出了很多更为成熟的理论,如Adaptive lasso,The Grouped lasso,SCAD。由于我目前也是门外汉,就不在这里扯虎皮拉大旗啦,总之一句话:这是一种很流行的方法,老师同学用了都说好。
The lasso的原理
lasso的思想其实很简单,就是在传统的最小二乘估计上对模型的系数施加一个L 1 L1惩罚。
模型形式如下。
β ^ lasso = argmin β ∑ N i=1 (y i −β 0 −∑ p j=1 x ij β j ) 2 subject to ∑ p j=1 |β j |≤t. β^lasso=argminβ∑i=1N(yi−β0−∑j=1pxijβj)2subject to ∑j=1p|βj|≤t.
上式等价于
β ^ lasso =argmin β {∑ i=1 N (y i −β 0 −∑ j=1 p x ij β j ) 2 +λ∑ j=1 p |β j |} β^lasso=argminβ{∑i=1N(yi−β0−∑j=1pxijβj)2+λ∑j=1p|βj|}
看到这个表达式,有没有一种熟悉的感觉?看!
β ^ ridge =argmin β {∑ i=1 N (y i −β 0 −∑ j=1 p x ij β j ) 2 +λ∑ j=1 p β 2 j } β^ridge=argminβ{∑i=1N(yi−β0−∑j=1pxijβj)2+λ∑j=1pβj2}
没错!它其实跟我们在回归分析教材中介绍的岭回归(ridge regression)非常相似,只是将L 2 L2惩罚换成了L 1 L1惩罚。很多同学可能表示不服了:这个我也会!没错,Zou and Hastie同学在2005年,提出了一种在ridge regression和the lasso之间折衷的方法:the elastic net penalty,思想也非常简单,但是却很有影响力。
好像扯远了,我们回过神来思考一下,lasso为何如此流行。
这么做的好处是一举多得的:
- 可以解决岭回归能够解决的问题:多重共线性问题,过拟合问题等;
- 还可以解决岭回归不能解决的问题:将一部分变量的系数压缩至0,即实现变量选择。
我们可以从一张图看出来。
这幅图在请教了钟老师之后,终于明白原来是这样理解的。
蓝色的区域是β β的可行域。由于the lasso的约束是L 1 L1约束,必然是方形区域,区域的大小取决于t的大小;而ridge regression是L 2 L2约束,所以可行域呈圆形。
Z=∑ i=1 N (y i −β 0 −∑ j=1 p x ij β j ) 2 Z=∑i=1N(yi−β0−∑j=1pxijβj)2
从上面的式子可以看出,(如果我的空间解析几何没记错的话,)函数Z(β 1 ,β 2 ) Z(β1,β2)描述的是一个椭圆抛物面的形状。而椭圆抛物面在(β 1 ,β 2 ) (β1,β2)平面上的投影就是类似上图红色圆圈所表述的形状,每一圈代表着不同的Z值。而中间的黑点,自然就是最小的Z,即没有约束下,普通最小二乘得到的解。我们可以想象,当蓝色的圆圈足够大,以至于涵盖了中间的小黑点时,约束没有起到作用,取到的解就是中间的小黑点,此时等价于普通最小二乘;当约束比较紧,取到的解靠近0,为两个区域相切的点。
我们可以直观地看到,the lasso更容易取到角点解,即:使得某些变量的系数压缩至零。如果你还是不相信自己的眼睛,我们待会还可以从一个示例中看出这一特点。
一些爱思考的同学可能会继续追问:“它能够保证留下来的变量都是对因变量有着更大影响的吗?”这一点稍微思考一下,应该是可以保证的。但是,如果存在一组高度相关的变量时,Lasso倾向于选择其中的一个变量,而忽视其他所有的变量。这样可能会导致结果的不稳定性。要解决这个问题,可以去探究一下 elastic net penalty。
lasso的R实现
lasso的实现可以采用glmnet包。glmnet包作者是Friedman, Hastie, and Tibshirani这三位统计学习领域的大牛,可信度无可置疑。
这个包采用的算法是循环坐标下降法(cyclical coordinate descent),能够处理的模型包括 linear regression,logistic and multinomial regression models, poisson regression 和 the Cox model,用到的正则化方法就是l1范数(lasso)、l2范数(岭回归)和它们的混合 (elastic net)。
这里,给出一个实现lasso的示例。
数据来源于ISLR包中的Hitters数据集,该数据集描述了美国1986年和1987年的棒球运动员相关数据。我们来探究一下对运动员薪水起主要作用的因素有哪些。
##data
library(ISLR)
str(Hitters)
## 'data.frame': 322 obs. of 20 variables:
## $ AtBat : int 293 315 479 496 321 594 185 298 323 401 ...
## $ Hits : int 66 81 130 141 87 169 37 73 81 92 ...
## $ HmRun : int 1 7 18 20 10 4 1 0 6 17 ...
## $ Runs : int 30 24 66 65 39 74 23 24 26 49 ...
## $ RBI : int 29 38 72 78 42 51 8 24 32 66 ...
## $ Walks : int 14 39 76 37 30 35 21 7 8 65 ...
## $ Years : int 1 14 3 11 2 11 2 3 2 13 ...
## $ CAtBat : int 293 3449 1624 5628 396 4408 214 509 341 5206 ...
## $ CHits : int 66 835 457 1575 101 1133 42 108 86 1332 ...
## $ CHmRun : int 1 69 63 225 12 19 1 0 6 253 ...
## $ CRuns : int 30 321 224 828 48 501 30 41 32 784 ...
## $ CRBI : int 29 414 266 838 46 336 9 37 34 890 ...
## $ CWalks : int 14 375 263 354 33 194 24 12 8 866 ...
## $ League : Factor w/ 2 levels "A","N": 1 2 1 2 2 1 2 1 2 1 ...
## $ Division : Factor w/ 2 levels "E","W": 1 2 2 1 1 2 1 2 2 1 ...
## $ PutOuts : int 446 632 880 200 805 282 76 121 143 0 ...
## $ Assists : int 33 43 82 11 40 421 127 283 290 0 ...
## $ Errors : int 20 10 14 3 4 25 7 9 19 0 ...
## $ Salary : num NA 475 480 500 91.5 750 70 100 75 1100 ...
## $ NewLeague: Factor w/ 2 levels "A","N": 1 2 1 2 2 1 1 1 2 1 ...
Hitters<-na.omit(Hitters)
## sampling
x<-model.matrix(Salary~.,Hitters)[,-1]
y<-Hitters$Salary
set.seed(1)
train<-sample(1:nrow(x),nrow(x)/2)
test<-(-train)
y.test<-y[test]
## ridge regression
library(glmnet)
grid<-10^seq(10,-2,length = 100)
ridge.mod<-glmnet(x,y,alpha = 0,lambda = grid)
plot(ridge.mod, main = "The ridge")
## the lasso
lasso.mod<-glmnet(x[train,],y[train],alpha = 1,lambda = grid)
plot(lasso.mod, main = "The lasso")
从上面两幅图对比可知,the lasso相比起ridge regression,在压缩变量方便表现更出色。
当然,你还可以使用这个包内部的交叉验证函数对λ λ进行参数优化,使得模型更具有稳健性。
## cross-validation
set.seed(1)
cv.out<-cv.glmnet(x[train,],y[train],alpha = 1)
plot(cv.out)
bestlam<-cv.out$lambda.min
lasso.pred<-predict(lasso.mod,s = bestlam,newx = x[test,])
mean((lasso.pred - y.test)^2)
## [1] 100743.4
##
out<-glmnet(x,y,alpha = 1,lambda = grid)
lasso.coef<-predict(out,type = "coefficients",s = bestlam)[1:20,]
lasso.coef
## (Intercept) AtBat Hits HmRun Runs
## 18.5394844 0.0000000 1.8735390 0.0000000 0.0000000
## RBI Walks Years CAtBat CHits
## 0.0000000 2.2178444 0.0000000 0.0000000 0.0000000
## CHmRun CRuns CRBI CWalks LeagueN
## 0.0000000 0.2071252 0.4130132 0.0000000 3.2666677
## DivisionW PutOuts Assists Errors NewLeagueN
## -103.4845458 0.2204284 0.0000000 0.0000000 0.0000000
可见,很多变量的系数确实被压缩至零。
lasso的优缺点分析
- 相比较于其他变量选择方法,如:best subset,Partial Least Squares(偏最小二乘),Principal components regression(主成分回归),the lasso和ridge regression对参数的调整是连续的,并不是一刀切的。
- the lasso相比于ridge regression的优势在于压缩变量表现更出色。
- 但是,正如前面所说,lasso还是会有一些潜在的问题,有时候,elastic net等其他的一些lasso的变形会是更好的选择。
参考文献
- The Elements of Statistical Learning: Data Mining, Inference and Prediction. Second edition
- An Introduction to Statistical Learning with R
- 线性回归建模–变量选择和正则化(1):R包glmnet