一. Multiple Features

具有多个变量的线性回归也被称为“多元线性回归”。

: 训练集第 i 个向量中的第 j 个元素(第 i 行第 j 列): 训练集第 i 个向量(第 i 行): 总共 m 行  : 总共 n 列

适应这些多特征的假设函数的多变量形式如下:

使用矩阵乘法的定义,我们的多变量假设函数可以简洁地表示为:

其中

二. Gradient Descent for Multiple Variables

多个变量的梯度下降,同时更新 n 个变量。

其中

三. Gradient Descent in Practice I - Feature Scaling

特征缩放包括将输入值除以输入变量的范围(即最大值减去最小值),导致新的范围仅为1。

均值归一化包括从输入变量的值中减去输入变量的平均值,从而导致输入变量的新平均值为零。

1. Feature Scaling

特征缩放让特征值取值范围都比较一致,这样在执行梯度下降的时候,“下山的路线”会更加简单,更快的收敛。通常进行特征缩放都会把特征值缩尽量缩放到 [-1,1] 之间「或者这个区间附近」

2. Mean normalization

其中, 是特征值的所有值的平均值, 是值的范围(最大 - 最小),或者 是标准偏差

当然 就不需要经过上述的处理了,因为它永远等于1,不能有均值等于0的情况。

四. Gradient Descent in Practice II - Learning Rate

如果学习率 太小的话,就会导致收敛速度过慢的问题。如果学习率 太大的话,代价函数可能不会在每次迭代中都下降,甚至可能不收敛,在某种情况下,学习率 过大,也有可能出现收敛缓慢。

可以通过绘制代价函数随迭代步数变化的曲线去调试这个问题。

的取值可以从 0.001,0.003,0.01,0.03,0.1,0.3,1 这几个值去尝试,选一个最优的。

五. Features and Polynomial Regression

可以通过改造特征值,例如合并2个特征,用 来表示

在多项式回归中,针对 ,我们可以令 降低次数。

还可以考虑用根号的式子,例如选用  

通过上述转换以后,需要记得用「特征值缩放,均值归一化,调整学习速率的方式调整一下」