接受域(感知野)

卷积权重 卷积中权重是什么意思_池化

 如图所示,中间的正方形都表示接受域,其大小为5*5。权重指卷积核的值,接受域指的是卷积核的大小。

步长

卷积权重 卷积中权重是什么意思_卷积核_02

       接受域的范围从区域1移到区域2的过程,或者从区域3移动到区域4都涉及到一个参数:步长,即每次移动的幅度。在此例中的步长可以表示成3或(3,3),单个3表示横纵坐标方向都移动3个坐标点,步长坐标(3,2)表示横向移动3个坐标点,纵向移动2个坐标点。每次按一个方向移动,不是两个方向都移动(图中从区域1移动到区域2再到区域3,然后才移动到区域4,如果两个方向都移动三个坐标点则从区域1到了区域5,是不对的)。

卷积

      卷积就是对于给定的一幅图像及一个卷积核,根据卷积窗口,进行像素的加权求和。

卷积权重 卷积中权重是什么意思_卷积核_03

       图像卷积与卷积神经网络的区别:

  1. 一般来说,图像卷积的卷积核是已知的,比如边缘检测算子、高斯模糊等都是已知的卷积核,然后再与图像进行卷积运算。
  2. 卷积神经网络卷积核是未知的,我们训练一个神经网络,就是要训练得出这些卷积核,而这些卷积核就相当于学单层感知器时的那些参数W,因此你可以把这些待学习的卷积核看成是神经网络的训练参数W。

池化

       池化是非线性下采样的一种形式,主要作用是通过减少网络的参数来减小计算量,缩减模型的大小,提高计算速度,同时提高所提取特征的鲁棒性,并且能够在一定程度上控制过拟合。通常在卷积层的后面会加上一个池化层。 所谓的池化,就是图片下采样。这个时候,其实CNN每一层的构建跟图像高斯金字塔的构建有点类似。在高斯金子塔构建中,每一层通过卷积,然后卷积后进行下采样,而CNN也是同样的过程。

       CNN的池化(图像下采样)方法很多:Mean pooling(均值采样)、Max pooling(最大值采样)、Overlapping (重叠采样)、L2 pooling(均方采样)、Local Contrast Normalization(归一化采样)、Stochasticpooling(随即采样)、Def-pooling(形变约束采样)。其中最经典的是最大池化,因此解释一下最大池化的实现:

卷积权重 卷积中权重是什么意思_卷积权重_04

  

卷积权重 卷积中权重是什么意思_卷积核_05

  

卷积权重 卷积中权重是什么意思_卷积_06

                     a、原矩阵                                                 b、max_pooling                                         c、结果

    源图像矩阵a大小是4*4,图a中各个格子中的数值是像素点的值。然后对这张4*4的图片进行池化,池化核的大小为(2,2),步长为2,那么采用最大池化对图a进行分块,每个块的大小为2*2,计算出每个块的最大值,作为下采样后图片的像素值,计算过程如图b所示,最后得到下采样结果图c。
    这就是最大池化。当然以后你还会遇到各种池化方法,比如均值池化,也就是对每个块求取平均值作为下采样的新像素值。还有重叠采样的池化,我上面这个例子是没有重叠的采样的,也就是每个块之间没有相互重叠的部分,上面的步长为2,就是为了使得分块都非重叠,等等。这里就先记住最大池化就好了,因为这个目前是最常用的。

feature maps (特征图)

         特征图说白了就是CNN中的每张图片,也称之为特征图片。在CNN中,我们要训练的卷积核并不是仅仅只有一个,这些卷积核用于提取特征,卷积核个数越多,提取的特征越多,理论上来说精度也会更高,然而卷积核一堆,意味着我们要训练的参数的个数越多。在LeNet-5经典结构中,第一层卷积核选择了6个,而在AlexNet中,第一层卷积核就选择了96个。
      CNN的每一个卷积层都要人为的选取合适的卷积核个数,及卷积核大小。每个卷积核与图片进行卷积,就可以得到一张特征图了,比如LeNet-5经典结构中,第一层卷积核选择了6个,就可以得到6个特征图,这些特征图也就是下一层网络的输入了。也可以把输入图片看成一张特征图,作为第一层网络的输入。