文章目录

  • 「最小二乘法」的提出背景
  • 从一个简单的例子开始
  • 参考资料


「最小二乘法」的提出背景

最小二乘法通常归功于高斯(Carl Friedrich Gauss,1795),但最小二乘法是由阿德里安-马里·勒让德(Adrien-Marie Legendre)首先发表的。它对应的英文是 least squares method,在大陆地区的翻译一般是最小二乘法,或最小平方法。它是一种对离散数据求拟合,并通过均方差最小的约束条件来达成于目标数据之间最少误差的数学建模方法。

逻辑回归模型的最小二乘估计 最小二乘回归的假设_机器学习

用上图进行解释会更明了一些,当我们有一组离散数据(图中红点所示),试图寻找某个能最大程度表示红点之间的趋势关系的函数 逻辑回归模型的最小二乘估计 最小二乘回归的假设_拟合_02,这时就可以利用最小二乘法的概念,建模得到比较理想的解。

由于最小二乘法通常被表述为离散点对均值的回归问题,所以它被分类为一种 回归问题,而且也是回归问题中最常用的方法。对于最小二乘法来说,它的最佳拟合,即 残差(残差为:观测值与模型提供的拟合值之间的差距)平方总和的最小化。 当问题在自变量(x变量)有重大不确定性时,那么使用简易回归和最小二乘法会发生问题;在这种情况下,须另外考虑变量-误差-拟合模型所需的方法,而不是最小二乘法。

最小二乘问题分为两种:线性或普通的最小二乘法,和 非线性的最小二乘法,取决于在所有未知数中的残差是否为线性。线性的最小二乘问题发生在统计回归分析中;它有一个封闭形式的解决方案。非线性的问题通常经由迭代细致化来解决;在每次迭代中,系统由线性近似,因此在这两种情况下核心演算是相同的。

在本章中,我会介绍线性问题的求解,而对于非线性问题的求解,可以参考我其他博文的内容。

从一个简单的例子开始

假设某次实验得到4个离散数据 逻辑回归模型的最小二乘估计 最小二乘回归的假设_最小二乘法_03,它们分别如下

x

y

1

6

2

5

3

7

4

10

现在我们要试图找到一条直线 逻辑回归模型的最小二乘估计 最小二乘回归的假设_拟合_04,它与上述数据的距离最短,于是可以有

逻辑回归模型的最小二乘估计 最小二乘回归的假设_最小二乘法_05

逻辑回归模型的最小二乘估计 最小二乘回归的假设_逻辑回归模型的最小二乘估计_06

这里的 逻辑回归模型的最小二乘估计 最小二乘回归的假设_最小二乘法_07 表示残差,或者说叫方差和,我们的目标是找到最合适的 逻辑回归模型的最小二乘估计 最小二乘回归的假设_逻辑回归模型的最小二乘估计_08逻辑回归模型的最小二乘估计 最小二乘回归的假设_机器学习_09,使得 逻辑回归模型的最小二乘估计 最小二乘回归的假设_最小二乘法_07 最小。找到最小组合的方法,除了一个参数一个参数的试验以外,还可以利用导数的性质,找到令偏导数 逻辑回归模型的最小二乘估计 最小二乘回归的假设_最小二乘法_11逻辑回归模型的最小二乘估计 最小二乘回归的假设_拟合_12的情况,对于我们来说,求导数显然最为便捷,于是:

逻辑回归模型的最小二乘估计 最小二乘回归的假设_拟合_13

逻辑回归模型的最小二乘估计 最小二乘回归的假设_逻辑回归模型的最小二乘估计_14

于是最终得到

逻辑回归模型的最小二乘估计 最小二乘回归的假设_机器学习_15

我们即得到方程

逻辑回归模型的最小二乘估计 最小二乘回归的假设_逻辑回归模型的最小二乘估计_16

是对上述问题最佳的拟合函数。

参考资料