BP神经网络反向传播

反向传播是BP神经网络的特点,在之前的博客中已经粗略介绍了BP神经元以及反向传播的特点,对反向传播用较为直观图示解释。

本博客将重点介绍其反向传播的传播过程。
首先明确概念,反向传播就是得到整个网络的输出对每个门单元的梯度的过程。

举例说明,f(x1,x2,x3,x4)=(max(x1,x2)+x3)∗x4 f ( x 1 , x 2 , x 3 , x 4 ) = ( m a x ( x 1 , x 2 ) + x 3 ) ∗ x 4

那么,dfdx1 d f d x 1 , dfdx2 d f d x 2 , dfdx3 d f d x 3 , dfdx4 d f d x 4

1.如果x1>x2 x 1 > x 2 , 那么 dfdx1=x4 d f d x 1 = x 4 ,反之为0,也就是说如果x1>x2 x 1 > x 2 ,那么x1 x 1 对输出有影响,反之没影响
2.如果x2>x1 x 2 > x 1 , 那么 dfdx2=x4 d f d x 2 = x 4 ,反之为0,含义与x1 x 1 相同
3.dfdx3=x4 d f d x 3 = x 4 ,这说明x3 x 3 的变化对整个输出的影响与x4 x 4 成正比
4.dfdx4=max(x1,x2)+x3 d f d x 4 = m a x ( x 1 , x 2 ) + x 3 ,这说明x4 x 4 的变化对整个输出的影响与max(x1,x2)+x3 m a x ( x 1 , x 2 ) + x 3 成正比

其次,总结加法,乘法,最大值操作对梯度的作用。
1 加法门单元把输出的梯度相等地分发给它所有的输入
2 取最大值门单元对梯度做路由
3 乘法门单元是相互交换输入值

根据以上方法计算梯度,我们就可以知道,应该改变哪几个变量,才能使整个网络的loss function值最小,这也就完成了反向传播的过程

上述计算的梯度,我们可以借助雅可比矩阵(jacobi matrix) 存储,雅可比矩阵的形式如下:


⎡⎣⎢⎢⎢⎢⎢⎢⎢⎢∂y1∂x1∂y2∂x1⋮∂yn∂x1∂y1∂x2∂y2∂x2⋮∂yn∂x2⋯⋯⋱⋯∂y1∂xn∂y2∂xn⋮∂yn∂xn⎤⎦⎥⎥⎥⎥⎥⎥⎥⎥ [ ∂ y 1 ∂ x 1 ∂ y 1 ∂ x 2 ⋯ ∂ y 1 ∂ x n ∂ y 2 ∂ x 1 ∂ y 2 ∂ x 2 ⋯ ∂ y 2 ∂ x n ⋮ ⋮ ⋱ ⋮ ∂ y n ∂ x 1 ∂ y n ∂ x 2 ⋯ ∂ y n ∂ x n ]


举个例子,如果输入

x x 为4096维向量,f=max(x,0)f=max(x,0)

1.那么雅可比矩阵的尺寸?



4096∗4096 4096 ∗ 4096

2.这个雅可比矩阵是怎样的?
只有对角线上有值,其余为0,并且如果xi x i 小于0,那么雅可比矩阵第i行i列的值也为0,如果xi x i 大于0,那么雅可比矩阵第i行i列的值为1

CNN反向传播

有了上面的讨论之后,CNN的反向传播就容易理解了很多,这里我们主要讨论卷积层和pooling层的反向传播。

卷积层

下面的图片引自CNN的反向传播

bp和cnn有什么区别 bp神经网络与cnn区别_反向传播

事实上,卷积层跟普通的全连接层的不同之处就在于参数的共享,也就是说,并不是每一个输入像素所对应的权重都不同,这主要是为了减少在图像领域参数过多导致的过拟合现象。而参数共享之所以可以得到很好的效果,与图像的局部相关性有关,某一个位置的像素可能只与周围一定范围内的像素相关,与距离很远的像素关系不大。

因此基于上述分析以及对于bp链式法则的了解,我们可以定义后一层的误差为lossl l o s s l ,其中l l 表示层数。从而求前一层的误差lossl−1lossl−1,以及权重的导数dfdwl d f d w l ,以及偏置的导数dfdbl d f d b l 。

首先我们来计算误差lossl−1 l o s s l − 1 :


lossl−1=lossl.∗dzldal−1.∗σ′(zl−1) l o s s l − 1 = l o s s l . ∗ d z l d a l − 1 . ∗ σ ′ ( z l − 1 )


其中,

zl z l 表示第 l l 层的输入,al−1al−1表示第 l−1 l − 1 层输出,那么这个问题就转换为,计算 dzldal−1 d z l d a l − 1

以上图为例,我们计算左上角位置(0,0) ( 0 , 0 ) 的导数,因为这个像素只与粉色权重相乘,所以它的导数就是粉色权重。位置(0,1) ( 0 , 1 ) 的导数,在卷积核的滑动过程中会分别与绿色权重和粉色权重相连,因此,它的导数包括了这两部分。如果用公式来表示上述过程:


lossl−1=lossl.∗rot180(Wl).∗σ′(zl−1) l o s s l − 1 = l o s s l . ∗ r o t 180 ( W l ) . ∗ σ ′ ( z l − 1 )


权重的导数

dfdwl d f d w l ,以及偏置的导数 dfdbl d f d b l 就很容易计算了,分别为 al−1∗lossl a l − 1 ∗ l o s s l 以及 lossl l o s s l

pooling层

pooling层理解起来就更为简单,将之前卷积层的计算公式照搬下来,dzldal−1 d z l d a l − 1 理解为对lossl l o s s l 上采样之后求导。


lossl−1=lossl.∗dzldal−1.∗σ′(zl−1) l o s s l − 1 = l o s s l . ∗ d z l d a l − 1 . ∗ σ ′ ( z l − 1 )

那么这个上采样过程就分为两种,一种是average,一种是max。在average的计算中,将lossl l o s s l 平分给每个位置,而max时,只把lossl l o s s l 放在最大位置即可,其他与卷积的计算相同