之前看过很多次相关的讲解,似懂非懂,还总是忘,这次记下来。
首先明确几个概念:
1、卷积核其实就是一个矩阵(2*2,3*3等等),它的作用就是提取特征
2、CNN网络训练时会初始化卷积核的内的权值,而网络训练的目的就是提高卷积核提取特征的能力
上图左侧是将每一个参数都全连接到每一个神经元上,若输入参数很多,则会导致计算困难,为了简化计算,选择上图右侧的局部感受野,即每个神经元只管一整张图的一部分,只要所有神经元的所管理的部分加起来可以覆盖整张图就可以了。
概念中提到了卷积核的作用是提取特征,也就是说一个卷积核可以提取一个特征,举例来说:卷积核A的作用是提取眼睛特征的,卷积核B是提取耳朵特征的,那么让所有神经元都先用卷积核A进行计算,因为神经元所管理的范围覆盖整个图像,所以图中所有的眼睛都可以被卷积核发现,同理卷积核B也可以在全图范围找耳朵。这时就出现一种情况,当使用同一个卷积核时,所有神经元的参数都是一样的,这就是所谓的——权值共享。此时参数的数量与神经元的个数无关,只与卷积核有关,如果说卷积核是10*10的,也就是100个参数,现在有100个卷积核,最终需要调整的参数也只有100*100=10000个,极大的减少了计算量,再往后加卷积层的方法也与之前的思想一样。
之前看过很多次相关的讲解,似懂非懂,还总是忘,这次记下来。
首先明确几个概念:
1、卷积核其实就是一个矩阵(2*2,3*3等等),它的作用就是提取特征
2、CNN网络训练时会初始化卷积核的内的权值,而网络训练的目的就是提高卷积核提取特征的能力
上图左侧是将每一个参数都全连接到每一个神经元上,若输入参数很多,则会导致计算困难,为了简化计算,选择上图右侧的局部感受野,即每个神经元只管一整张图的一部分,只要所有神经元的所管理的部分加起来可以覆盖整张图就可以了。
概念中提到了卷积核的作用是提取特征,也就是说一个卷积核可以提取一个特征,举例来说:卷积核A的作用是提取眼睛特征的,卷积核B是提取耳朵特征的,那么让所有神经元都先用卷积核A进行计算,因为神经元所管理的范围覆盖整个图像,所以图中所有的眼睛都可以被卷积核发现,同理卷积核B也可以在全图范围找耳朵。这时就出现一种情况,当使用同一个卷积核时,所有神经元的参数都是一样的,这就是所谓的——权值共享。此时参数的数量与神经元的个数无关,只与卷积核有关,如果说卷积核是10*10的,也就是100个参数,现在有100个卷积核,最终需要调整的参数也只有100*100=10000个,极大的减少了计算量,再往后加卷积层的方法也与之前的思想一样。