大家都知道,机器学习无非就是分类和回归,回归需要用到哪些评价指标呢,以及如何看这些评价指标?以下是对全网几篇文章部分的截取,由于文章较为分散,篇幅也不长,就不贴引用了,作者见谅。
1.R Square介绍以及为什么好
分类准确率,就是在01之间取值。但RMSE和MAE没有这样的性质,得到的误差。因此RMSE和MAE就有这样的局限性,比如我们在预测波士顿方差,RMSE值是4.9(万美元) 我们再去预测身高,可能得到的误差是10(厘米),我们不能说后者比前者更准确,因为二者的量纲根本就不是一类东西。
其实这种局限性,可以被解决。用一个新的指标R Squared。
R方这个指标为什么好呢?
对于分子来说,预测值和真实值之差的平方和,即使用我们的模型预测产生的错误。
对于分母来说,是均值和真实值之差的平方和,即认为“预测值=样本均值”这个模型(Baseline Model)所产生的错误。
我们使用Baseline模型产生的错误较多,我们使用自己的模型错误较少。 因此用1减去较少的错误除以较多的错误,实际上是衡量了我们的模型拟合住数据的地方,即没有产生错误的相应指标。
我们根据上述分析,可以得到如下结论:
R^2 <= 1
R 2越大也好,越大说明减数的分子小,错误率低;当我们预测模型不犯任何错误时,R2最大值1
当我们的模型等于基准模型时,R^2 = 0
如果R^2 < 0,说明我们学习到的模型还不如基准模型。此时,很有可能我们的数据不存在任何线性关系。
总结
①、R 2 R^2R 2
小于等于1,可能取负数。
②、R 2 R^2R 2
越大模型拟合度越高。值在[0.5,0.7)区间说明模型很好,值在[0.7,0.96)区间说明模型非常好,值大于等于0.96需要考虑模型是否过拟合。
③、R 2 R^2R2
小于0,说明模型很糟糕,连’瞎猜’的效果都不如。
下列哪些指标可以用来评估线性回归模型(多选)?
A. R-Squared
B. Adjusted R-Squared
C. F Statistics
D. RMSE / MSE / MAE
答案:ABCD
解析:R-Squared 和 Adjusted R-Squared 都可以用来评估线性回归模型。
F Statistics 是指在零假设成立的情况下,符合F分布的统计量,多用于计量统计学中。
RMSE 指的是均方根误差:
MSE 指的是均方误差:
MAE 指的是评价绝对误差:
以上指标都可以用来评估线性回归模型。