结论:

卷积层:

1.增加网络的深度能够提高准确率;

2.增加特征面数也能提高准确率;

3.增加一个卷积层比增加一个全连接层更能获得一个更高的准确率;

4.采用较小的卷积核代替较大的卷积核,同时增加网络深度来增加复杂度,试验表明网络深度比卷积核大小更为重要;

5.试验表明,更小的卷积核且更深的CNN结构能够获得更优的性能;

6.在增加网络深度同时,适当减少特征面数,同时卷积核大大小保持不变;

7.试验表明,深度越深,网络性能越好,然而随着网络深度的增加,网络的性能达到饱和;

8.试验表明,特征面数和卷积核的大小优先级差不多,二者发挥的性能均没有网络深度大;

9.金字塔架构的CNN往往具有封号的性能;

池化层:

1.最大池化特别适用于分离非常西稀疏的特征;

2.使用局部区域内所有的采样点去执行池化操作也许不是最优的(即均值池化并不一定是最优的);

3.当分类层采用线性分类器,最大池化往往优于均值池化;

4.随机池化具有最大池化的优点,同时由于它的随机性能够有效的避免过拟合,而且可以保证特征面中不是最大的激励神经元也能被利用到;

5.重叠池化往往比无重叠池化泛化能力更强,更不容易产生过拟合;

6.池化层可以较少卷积层之间的连接权值的数量,即通过池化操作减少网络的复杂度;

全连接层:

1:全连接层可以整合卷积层或者池化层中具有类别区分性的局部信息;

2:为了提升CNN的性能,激励函数一般采用RELU函数,最后一层往往采用sotfmax函数进行分类;

3:目前,CNN+Dropout技术,往往会取得更好的分类性能;