目录
- 1. 全连接网络与卷积网络
- 2. 卷积基本概念
- 3. 批量计算
- 附录1-解卷积
- 附录2-编辑推荐
1. 全连接网络与卷积网络
- 全连接网络的问题
- 丢失输入数据的空间信息
- 模型参数过多,容易过拟合
- 卷积网络的优势
- 保留空间信息:在卷积运算中,计算范围是在像素点的空间邻域内进行的,它代表了对空间邻域内某种特征模式的提取。对比全连接层将输入展开成一维的计算方式,卷积运算可以有效学习到输入数据的空间信息。
- 局部连接:保证了训练后的滤波器能够对局部特征有最强的响应,使神经网络可以提取数据的局部特征。同时,由于使用了局部连接,隐含层的每个神经元仅与部分图像相连,相较于全连接层,参数量减少。
- 权重共享:同样大为减少了模型的参数量,从而降低了网络的训练难度。
2. 卷积基本概念
- 卷积核(kernel):也被叫做滤波器(filter),假设卷积核的高和宽分别为\(k_{h}\)和\(k_{w}\),则称其为卷积。比如某卷积核高为3, 宽为5,则叫做\(3\times{5}\)卷积。卷积核中数值即进行卷积计算时所采用的权重。
- 特征图(feature map):卷积滤波结果。
- 感受野(Receptive Field):特征图上的点所对应得输入图像上的区域。
- 填充(padding):输入图像的边缘像素因处于边缘位置无法参与卷积运算。填充是指在边缘像素点周围填充“0”(即0填充),使得输入图像的边缘像素也可以参与卷积计算。
- 如果在输入图片第1行之前和最后1行之后填充\(p_h\)行,在输入图片第1列之前和最后1列之后填充\(p_w\)列,则填充之后的图片尺寸为\。经过大小为的卷积核操作之后,输出图片的尺寸为:
- 为了便于padding,卷积核大小通常使用奇数,这样如果使用的填充大小为,则可以使得卷积之后图像尺寸不变。
- 步长(stride):在卷积操作时,通常希望输出数据维度与输入数据维度相比会逐渐减少,这可以通过改变卷积核在输入图像中移动步长大小实现。\(stride=k\)表示卷积核移动跳过的步长是k。
- 当输入数据尺寸为,卷积核大小为,填充分别为,步长分别为时,输出特征图尺寸为:
3. 批量计算
- 多输入:当输入数据有多个通道时,对应的卷积核也具有相同的通道数。假设输入数据的通道数为,输入数据的形状为
*
参考链接:
论文阅读笔记:各种Optimizer梯度下降优化算法回顾和总结
附录1-解卷积
https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md
附录2-编辑推荐
行动是治愈恐惧的良药,而犹豫拖延将不断滋养恐惧。