原理
误差反向传播算法是通过误差函数计算实际输出值与期望输出值之间的误差,把误差从最后的输出层依次传播到之前各层,最后通过调整各层连接权重与偏置达到减小误差的目的。而权重和偏置的调整一般使用梯度下降法。
推导前的准备
本文误差反向传播算法的推导以包含隐藏层的多层感知器为例,结构如下图所示:
这里,图中和推导过程中涉及的符号代表的含义分别为:
符号 | 含义 |
输入值 | |
隐藏层激活值 | |
实际输出值 | |
期望输出值 | |
网络输入层的第i个神经元和下一层网络第j个神经元之间的连接权重 | |
网络隐藏层的第j个神经元和下一层网络第k个神经元之间的连接权重 | |
网络隐藏层第j个神经元的偏置 | |
网络输出层第k个神经元的偏置 | |
隐藏层第j个神经元的激活函数的加权输入 | |
输出层第k个神经元的激活函数的加权输入 | |
误差函数 | |
学习率 |
这里,误差函数采用最小二乘误差函数,公式如下:
激活函数使用sigmoid函数,公式如下:
其中,
开始推导
首先,再明确一下我们的目的是计算使用梯度下降法时神经网络各层间连接权重和偏差的变化值,即等值。
这里,计算过程以求解为例,其它值类似,而
根据链式求导得:
然后逐个对等式右侧各部分求解得:
最后得:
因此,权重得变化值为:
根据上述计算过程可以发现,权重的变化值的组成依次为:学习率、误差函数导数、激活函数导数、对应连接权重、激活函数导数和输入值,根据这个规律可以快速写出各层权重和偏差的变化值,例如:
小结
误差反向传播算法会通过误差函数计算梯度,然后调整权重与偏置,经过反复迭代训练的调整,最终获得最优解。
本文在推导过程中使用的误差函数为最小二乘误差函数,除此以外还有很多其它函数用于计算误差,比如一般多分类问题中使用交叉熵误差函数:
二分类中的常用的误差函数为:
同时,激活函数除sigmoid外还有tanh、ReLU等函数: