之前学习了线性回归,逻辑回归和梯度下降法,今天学习的这个技术能够帮助我们训练的模型对未知的数据进行更好的预测 - 正则化技术!

快来一起学习学习,学习使我快乐 (^▽^)!

一、正则化是什么?

正则化(Regulariation)这 3 个字听起来挺高大上的,其实就是一种解决机器学习过拟合问题的技术,使用这项技术可以让我们在训练集上训练的模型对未知的数据也能很好地拟合。

机器学习模型对未知数据的拟合能力又称为泛化能力。

泛化能力比较好的模型,对未知数据拟合的也比较不错,如果对训练数据产生过拟合(over-fitting)问题,那泛化能力也会变差。

当出现过拟合问题后,处理的方式有 2 种:

  • 降维:减少特征数量,把模型多项式阶数降低,这样高阶项就少了,模型曲线就不会那么复杂
  • 正则化:不直接减少特征,而是增大代价函数中特征参数的系数

我们今天要介绍的就是正则化技术,下面用个例子先来说明什么是过拟合与欠拟合。

二、过拟合 VS 欠拟合

2.1 线性回归例子

这里还以预测房价为例,分别解释以下 3 种情况:



流形正则化python代码 正则化实现_流形正则化python代码

  • 欠拟合:模型选择的特征数量太少(2 个),不能对训练数据很好地拟合,会产生高偏差
  • 正常拟合:模型选择的特征数量合适(3 个),能对训练数据拟合较好
  • 过拟合:模型选择的特征数量过多(5 个),对训练数据过度拟合,会导致高方差

在实际应用中,通常选择的特征会比较多,很容易出现过拟合,所以解决这个问题很有必要。

2.2 逻辑回归例子

逻辑回归问题同样会产生过拟合与欠拟合问题,比如这个分类问题:



流形正则化python代码 正则化实现_拟合_02

这里忘记注释类型了,不过原理一样:

  • 欠拟合:用直线分类,一看就不合适,因为直观来看决策边界是圆弧形状
  • 正常拟合:决策边界是圆弧形状,拟合的效果比较好
  • 过拟合:决策边界分类的太严格了,在未知样本上的预测效果很差

简单总结下:模型的参数越多,使用的多项式次数( )就越大,模型曲线就越复杂,这些高阶次的项会导致过拟合问题。

这个正则化技术要解决过拟合问题的实质就是:减小高阶次项对模型整体的影响,以此来提高模型对未知样本的预测能力。

因为我们在训练数据上训练出的模型,最终是要用到未知的样本中的,不然就失去工程应用的意义了。

OK,那下面就来正式学习下这个技术的原理,其实很容易,就是在代价函数后面加上一个正则化项公式。

三、正则化原理

3.1 在假设函数中理解正则化

我还以预测房价的例子来说明正则化技术的原理,模型的假设函数如下:

假如 表示房屋厨房面积, 表示房屋的地理位置,这两个特征导致模型阶次太高( ),我想减少它俩对假设函数的影响。

也就是说我想在代价函数求得最优值后,得到的最优特征向量中这 2 个参数尽可能趋向于 0,这样上面的模型就变成:

注意了:这里只是将 , ,而并不是让他们直接等于 0,因为我们是正则化不是降维。

通过将这 2 个参数趋向于 0 使得他们的高阶次项可以忽略不计,就能得到减少

用个机器学习的术语来说就是:通过正则化技术来惩罚

3.2 在代价函数中理解正则化

在应用中要惩罚参数需要通过对代价函数进行正则化,也就是在代价函数最小化的同时,将要惩罚的参数尽可能的设置为 0。

这里以线性回归代价函数为例,看下如何正则化 :

我们在代价函数后面加了 2 项 ,因为我们最后要将代价函数最小化,因此也需要对添加的这两项最小化。

然而因为 10000 系数比较大,这就导致为了将 整体优化变小,就需要把参数 设置的足够小,这样两者相乘的结果才能变的足够小,以此就完成了对

需要正则化的参数前的系数需要根据实际情况来合适的选择,这里举的例子设置的 1000 和 10000。

上面的例子指定了需要正则化的参数为 ,但是在实际的应用中,因为训练集的特征非常多,我们不知道需要对哪些参数正则化。

因此我们就对所有的参数进行正则化,然后让优化算法来帮我们确定每个正则化参数前的系数,这样的代价函数如下:

代码如下:

# 线性回归正则化代价函数
# 正则化系数 lambda 设置为 1
def regularized_cost(theta, X, y, lamd = 1):
    # 不对 theta_0 正则化
    theta_one2n = theta[1:]

    # 正则化项, power 求平方,sum 求和
    regularized_term = (lamd / 2 * len(X)) * np.power(theta_one2n, 2).sum()
    
    # cost_function 是未加正则化的代价函数
    return cost_function(theta, X, y) + regularized_term

这就是最终的对代价函数进行正则化的公式,可以看出就是增加一个正则化项。

其中系数 称为正则化系数,要注意 ,即没有对 正则化,因为 对应的特征是 ,而 是我们人为加上的,所以没必要对

3.3 正则化系数的影响

在正则化过程中,系数

  • 过大:所有的参数都被过度正则化了,导致特征参数都几乎为 0,假设函数就会变为


流形正则化python代码 正则化实现_正则化_03

OK!正则化的原理就学习完了,下面来实际使用下正则化技术。

四、正则化代码实战

这部分我打算分别跟大家分享下如何在线性回归和逻辑回归中使用正则化编程。

4.1 线性回归正则化

因为我们在代价函数中增加了正则化项:

所以梯度下降的计算也多了一项正则化梯度(直接对正则化部分求导):

因为不需要对

我们发现上面第二个式子可以进一步合并 :

至此线性回归的正则化梯度公式就出来了,来用 Python 代码把它写出来:

# 添加正则化项的线性回归梯度下降
def regularized_gradient(theta, X, y, lamd = 1):
    # 不对 theta_0 正则化
    theta_one2n = theta[1:]
    
    # 正则化梯度:(lambda / m) * theta_j
    regularized_theta = (lamd / len(X)) * theta_one2n
    
    # 合并 theta_0
    regularized_term = np.concatenate([np.array([0]), regularized_theta])
    
    # 返回梯度:原梯度 + 正则化梯度
    return gradient(theta, X, y) + regularized_term

4.2 逻辑回归正则化

逻辑回归代价函数的正则化项与线性回归相同:

# 逻辑回归正则化代价函数
# lambda 设置为 1
def regularized_cost(theta, X, y, lamd = 1):
    theta_one2n = theta[1:]
    # lambda / (2 * m)
    regularized_term = (lamd / (2 * len(X))) * np.power(theta_one2n, 2).sum()
    
    # 返回加上正则化的总代价
    return cost_function(theta, X, y) + regularized_term

逻辑回归正则化梯度(

# 添加正则化项的逻辑回归梯度下降
def regularized_gradient(theta, X, y, lamd = 1):
    # 不对 theta_0 正则化
    theta_one2n = theta[1:]
    
    # 计算正则化项
    regularized_theta = (lamd / len(X)) * theta_one2n
    
    # 加上 theta_0
    regularized_term = np.concatenate([np.array([0]), regularized_theta])
    
   # 返回增加正则化后的总梯度
    return gradient(theta, X, y) + regularized_term

上面代码中的 lamb 就是正则化系数

文中完整可运行代码链接:

https://github.com/DLonng/AI-Notes/blob/master/MachineLearning/code/ex2-logistic-regression/my_logistic_regular.ipynb