目录

  • 1. 全连接网络与卷积网络
  • 2. 卷积基本概念
  • 3. 批量计算
  • 附录1-解卷积
  • 附录2-编辑推荐

1. 全连接网络与卷积网络

  • 全连接网络的问题
  • 丢失输入数据的空间信息
  • 模型参数过多,容易过拟合
  • 卷积网络的优势
  • 保留空间信息:在卷积运算中,计算范围是在像素点的空间邻域内进行的,它代表了对空间邻域内某种特征模式的提取。对比全连接层将输入展开成一维的计算方式,卷积运算可以有效学习到输入数据的空间信息。
  • 局部连接:保证了训练后的滤波器能够对局部特征有最强的响应,使神经网络可以提取数据的局部特征。同时,由于使用了局部连接,隐含层的每个神经元仅与部分图像相连,相较于全连接层,参数量减少。
  • 权重共享:同样大为减少了模型的参数量,从而降低了网络的训练难度。

2. 卷积基本概念

  • 卷积核(kernel):也被叫做滤波器(filter),假设卷积核的高和宽分别为\(k_{h}\)和\(k_{w}\),则称其为keras神经网络模型 kernel神经网络_卷积卷积。比如某卷积核高为3, 宽为5,则叫做\(3\times{5}\)卷积。卷积核中数值即进行卷积计算时所采用的权重。
  • 特征图(feature map):卷积滤波结果。
  • 感受野(Receptive Field):特征图上的点所对应得输入图像上的区域。
  • 填充(padding):输入图像的边缘像素因处于边缘位置无法参与卷积运算。填充是指在边缘像素点周围填充“0”(即0填充),使得输入图像的边缘像素也可以参与卷积计算。
  • 如果在输入图片第1行之前和最后1行之后填充\(p_h\)行,在输入图片第1列之前和最后1列之后填充\(p_w\)列,则填充之后的图片尺寸为\keras神经网络模型 kernel神经网络_数据_02。经过大小为keras神经网络模型 kernel神经网络_卷积的卷积核操作之后,输出图片的尺寸为:
    keras神经网络模型 kernel神经网络_卷积核_04
  • 为了便于padding,卷积核大小通常使用奇数,这样如果使用的填充大小为keras神经网络模型 kernel神经网络_数据_05,则可以使得卷积之后图像尺寸不变。
  • 步长(stride):在卷积操作时,通常希望输出数据维度与输入数据维度相比会逐渐减少,这可以通过改变卷积核在输入图像中移动步长大小实现。\(stride=k\)表示卷积核移动跳过的步长是k。
  • 当输入数据尺寸为keras神经网络模型 kernel神经网络_keras神经网络模型_06,卷积核大小为keras神经网络模型 kernel神经网络_卷积,填充分别为keras神经网络模型 kernel神经网络_卷积核_08,步长分别为keras神经网络模型 kernel神经网络_数据_09时,输出特征图尺寸为:
    keras神经网络模型 kernel神经网络_keras神经网络模型_10

3. 批量计算

  • 多输入:当输入数据有多个通道时,对应的卷积核也具有相同的通道数。假设输入数据的通道数为keras神经网络模型 kernel神经网络_卷积_11,输入数据的形状为keras神经网络模型 kernel神经网络_keras神经网络模型_12
    *

参考链接:

论文阅读笔记:各种Optimizer梯度下降优化算法回顾和总结

听六小桨讲AI第4期:优化器合集

听六小桨讲AI第8期:可分离卷积

附录1-解卷积

https://github.com/vdumoulin/conv_arithmetic/blob/master/README.md

附录2-编辑推荐


行动是治愈恐惧的良药,而犹豫拖延将不断滋养恐惧。