文章目录

  • 轻量级神经网络——shuffleNet
  • shuffleNet2
  • G1:输入输出通道数相同,MAC最小✨✨✨
  • G2:分组数过大的分组卷积会增加MAC✨✨✨
  • G3:碎片化操作对并行加速不友好
  • G4:逐元素操作带来的内存和耗时不可忽略✨✨✨
  • shuffleNet2 unit✨✨✨
  • shuffleNet2的网络结构和效果

轻量级神经网络——shuffleNet

shuffleNet2

  通过对shuffleNet1的讲解,相信大家已经对分组卷积和通道重排有了清晰的认识。那么shuffleNet2相较于shuffleNet1有什么不同之处呢?下面就让我们一起来学习学习✈✈✈

【图中横坐标表示FLPOs的大小,纵坐标表示速度】

轻量级神经网络——shuffleNet2_人工智能

  使用间接测量网络速度的FLOPs不准确,是因为还有别的因素影响着网络的速度。下图展示了在网络整个运行时间被分解为不同的部分。我们注意到FLOPs度量只考虑了卷积部分。虽然这部分操作耗费的时间最多,但其他操作包括数据I/O、数据转移和元素操作(AddTensor、ReLU等)也会占用大量的时间。因此,FLOPs对实际运行时的估计不够精确。

轻量级神经网络——shuffleNet2_shuffleNet_02

  基于这一观察,论文从几个不同的方面对运行时(或速度)进行了详细的分析,并得出了高效的网络架构设计的4个实用指南。

 

G1:输入输出通道数相同,MAC最小✨✨✨

  MAC为内存访问量,不会计算的请移步神经网络参数量、计算量(FLOPS)、内存访问量(AMC)计算详解。由于现代网络通常采用深度可分离卷积,1x1的逐点卷积占了很大一部分的运算量。论文中以1x1的卷积核为例,假设输入通道数量为C1,输出通道数量为C2,特征图大小为hxw,则1x1的卷积的FLOPs=hwC1C2。我们还可以通过不等式进行相关推导,如下图:当C1=C2时,MAC取最小值。

轻量级神经网络——shuffleNet2_shuffleNet_03

  论文中不仅给出了证明,同时也做了一系列的对照实验来证明,下表为不同输入输出通道比(C1:C2)下GPU和CPU下网络的处理速度,可以发现当C1=C2时,网络处理的速度最快。【注意:这里要控制FLOPs不变,因此不仅调节C1、C2的比例,还会将他们的通道数进行一定的改变以达到FLOPs不变】

轻量级神经网络——shuffleNet2_shuffleNet2_04

 

G2:分组数过大的分组卷积会增加MAC✨✨✨

  首先需要知道分组卷积的计算量和参数量都是普通卷积的轻量级神经网络——shuffleNet2_轻量级网络_05(假设分组的组数为g)。接下来我们仍然可以做一些算术推导证明结论。由下图可知,MAC和分组数成正相关,即分组卷积的分组数越大,MAC越大。

轻量级神经网络——shuffleNet2_轻量级网络_06

【注意:同样需要保持FLOPs不变,这里也是通过改变通道数c来调节FLOPs的,后面的所有对照实验都是保持FLOPs不变的】

轻量级神经网络——shuffleNet2_计算机视觉_07


 

G3:碎片化操作对并行加速不友好

  这部分没有公式上的推导,作者认为碎片化的结构虽然有利于提高精度,但可能会降低效率,因为它不利于GPU等有强大并行计算机能力的设备,还引入了额外的开销。这一结构论文中通过实验也进一步得到证明,可以发现,下图中随着分支的增加,网络速度再GPU这种并行能力强的硬件上速度大幅减少,在CPU上相对降低较少。

轻量级神经网络——shuffleNet2_人工智能_08

  下图为上表中几种结构的图示。

轻量级神经网络——shuffleNet2_人工智能_09


 

G4:逐元素操作带来的内存和耗时不可忽略✨✨✨

  逐元素的操作在作者看来对耗时的影响也是不可忽略的,逐元素的操作包括Relu、Add等等。这部分同样没有理论上的证明,作者做了一系列的对照实验来进行说明。下表展现了是否有Relu和short-cut对网络速度的影响,结果显示没有Relu和short-cut时网络速度更快。

轻量级神经网络——shuffleNet2_人工智能_10

 


shuffleNet2 unit✨✨✨

  基于上述的四个准则和实验验证,得出一个高效的网络结构应该:

  1. 使用“平衡卷积”,即输入输出的通道数应相等
  2. 意识到使用分组卷积的代价
  3. 降低网络的碎片化程度
  4. 减少逐元素操作

  有了这些准则,shuffleNet网络结构就被巧妙的设计出来了,如下图所示:

轻量级神经网络——shuffleNet2_计算机视觉_11

(a)、(b)为shuffleNet1;(c)、(d)为shuffleNet2    

 

  在上一篇文章中,已经分析过shuffleNet1的结构,即(a)、(b)。这里着重来看看shuffleNet2的基础单元和下采样单元。先来看(c),首先是Channel Split操作,将含c个通道的输入特征图一分为二,一部分含c个通道,则另一部分还c-c个通道(论文中是这样表述的,通常是将输入通道数平均分成两份)。左侧分支是一个恒等映射,右侧分支是三个卷积操作,最终将两部分Concat在一起。【注意:这里使用的是Concat,不是Add,因此没有了逐元素操作带来的耗时,满足G4;俩部分Concat结合在一起时,输入输出的通道数是一致的,满足G1】再来看右侧的三个卷积,注意这时没有采用shuffleNet1提出的分组卷积,而是仅仅使用1x1卷积,没有使用分组卷积自然不要channel shuffle,3x3的DWConv没有进行改变。【注意:这里的三次卷积同样会满足输入输出的通道数相等,满足G1;没有使用分组卷积满足G2】最后就是Concat后又进行了一次Channel shuffle【注意:这里虽然没有使用通道重排,但Split操作是类似channel shuffle的,但又没有使用分组卷积,十分巧妙!!!】

  至于(d)是shuffleNet2的下采样模块,和(c)是非常类似的。主要的改变是将DWConv的步长s调整为2,并删除了channel Split的操作。这样做的目的就是要下采样,使特征图尺寸减半,通道数翻倍。

而且我们也不能过度的追求G3,这样会使网络过度简单,虽然速度快,但却牺牲了准确度。论文中就拿MobileNetv1举例进行了论证。

轻量级神经网络——shuffleNet2_shuffleNet2_12

 

shuffleNet2的网络结构和效果

  这个网络结构每一步的变化也非常的好分析(0.5x,1x这些是宽度超参数),这里不再赘述,不明白的可以参考我之前的博客【文中会对网络变化后特征图的尺寸改变有详细分析】。

轻量级神经网络——shuffleNet2_shuffleNet2_13


 

  下面再来看看shuffleNet2的模型效果【表中速度方面基本都是MobileNetv1比较快,但其准确率较低,原因已经再上一节中说明】

轻量级神经网络——shuffleNet2_人工智能_14


 

上一篇:轻量级神经网络——shuffleNet1  
 
如若文章对你有所帮助,那就🛴🛴🛴

咻咻咻咻~~duang~~点个赞呗