看看这个链接你就知道是个坑了,官方都没能剪枝成功
https://blog.csdn.net/weixin_39326879/article/details/106473609

神经网络需要大量计算,

又占用大量内存,
因此难以在嵌入式系统上部署。
另外,
传统网络在训练开始前就确定了体系结构;
因此,
训练无法改善体系结构。
为了解决这些限制,
我们描述了一种减少神经网络所需的存储和计算的方法,
而不影响它们的准确性,
只学习重要的连接。
我们的方法使用三个步骤来修剪冗余连接。
首先,
我们训练网络来了解哪些连接是重要的。
接下来,
我们修剪不重要的连接。
最后,
我们重新训练网络,
以微调其余连接的权重。
在 ImageNet 数据集上,
相比于AlexNet 我们的方法减少了 9x的参数(从6100万到 670万)
,而不会导致精度损失
。在 VGG16网络基础上做 类似的实验发现,
整个网络可以在没有丢失准确性的情况下减少 13x的参数。
上没说resnet只有4x,
且剪枝这个特别好计算资源

感兴趣可以参考下面的链接
https://blog.csdn.net/u013044310/article/details/80187998


深度学习与P