卷积层用来提取特征,而池化层可以减小参数数量。

卷积层

工作原理:我们是使用卷积核来提取特征的,卷积核可以说是一个矩阵,假如我们设置一个卷积核为3*3的矩阵,而我们图片为一个分辨率为5*5的图片,那么卷积核的任务如下所示:

卷积神经网络中池化层的作用 池化层卷积核_卷积

 

 

 从左上角开始,卷积核就对应着数据的3*3的矩阵范围,然后相乘再相加得出一个值,按照这种顺序,每隔一个像素就操作一次,我们就可以得出9个值。这9个值形成的矩阵被我们称作激活映射 activation map,就是卷积层的工作原理。

卷积层还有另外两个重要的参数  步长和padding

步长就是控制卷积移动的距离,卷积核都是隔着一个像素进行映射,我们也可以让它隔着两个 三个,而这个距离我们称作步长。

padding就是我们对数据做的操作。一般有两种,一种是不进行操作,一种是补0使得卷积后的激活映射尺寸不变。

 


卷积的目的是为了从输入中提取有用的特征。在图像处理中,有很多滤波器可以供我们选择。每一种滤波器帮助我们提取不同的特征。比如水平 垂直 边角线边缘等等。

在CNN中,通过卷积提取不同的特征,滤波器的权重在训练期间自动学习。然后将所有提取到的特征组合以做出决定。

卷积的优势在于  权重共享和平移不变形。同时还考虑到了像素空间的关系。

在深度学习中,卷积是元素对元素的加法和乘法。

在很多应用中,我们需要处理多通道图片。典型的例子就是RGB图像。

卷积网络层通常由多个通道组成,每个通道描述前一层的不同方面。


常见的两个卷积层设置问题

self.conv1=nn.Conv2d(3,6,5)

问题1:为什么是cove2d?

cove1d:用于文本数据,只对宽度进行卷积,对高度不进行卷积

cove2d:用于图像数据,对宽度和高度都进行卷积

问题2:为什么卷积核大小5*5写一个5

Conv2d输入通道数,输出通道数,kerner_size长和宽,当卷积核为方形时,只写一个就可以了,当卷积核不是方形时,长和宽都要写。

self.conv1=nn.Conv2d(3,6,(5,3))

问题3:池化层的作用

maxpooling有局部不变形而且可以提取显著特恒的同时减低模型的参数,从而减低模型的过拟合。因为只是提取了显著特征,而舍弃了不显著的信息,随着参数减低,从而减低了过拟合的产生。