论文:SqueezeDet: Unified, Small, Low Power Fully Convolutional Neural Networks for Real-Time Object Detection for Autonomous Driving 

Paper:https://arxiv.org/abs/1612.01051 

Code: https://github.com/BichenWuUCB/squeezeDet

1、介绍


(1)精度


(2)速度


(3)小的模型尺寸


(4)能源效率



2、相关工作


2.1 目标检测中的CNN

   (1)HOG+SVM 或 DPM的各种版本

       (2)R-CNN、Fast R-CNN、 Faster R-CNNR-FCN

  (3)YOLO

2.2 小规模的CNN

   AlexNet的模型包含240MB的参数,并且在ImageNet top-5图像分类任务中达到约80%的准确度。

VGG-19模型包含575MB的参数,并且能够在ImageNet top-5图像分类任务中达到87%的准确度。

SqueezeNet只有4.8MB的参数量(比AlexNet小50倍),并且它在ImageNet上的测试能够达到和AlexNet相同级别的准确度。

GoogLeNet-V1模型只有53MB的参数量,他在ImageNet能达到VGG-19相同的级别的准确度。

2.3 全卷积网络

  全卷积网络(FCN)的潮流是被Long带动起来的,它将其运用到了语义分割领域。FCN定义了一个通用的神经网络类, 其最终参数化层的输出是一个网格(grid)而不是一个向量,这在语义分割领域是非常有用的,在网格中的每个位置都对应于一个像素的预测类。 
  其实FCN模型也可以被应用到了其他的领域。为了去解决图像分类的问题,一个CNN的结构需要最终输出一个一维的表示分类概率的向量,一个通用的方法就是通过定义输出为1 x 1 x Channels的向量,添加一个或者多个全连接层。然而还有一个可选择的办法是使得最后一层为卷积层输出一个网格(W x H x Channels即:宽x高x通道数),然后用平均池化的方法对输出网格进行下采样,输出能表示分类概率的1 x 1 x Channels的向量。最后我们注意在这节之前提到的R-FCN的方法是一个全卷积的网络结构。





参看资料:


目标检测:https://handong1587.github.io/deep_learning/2015/10/09/object-detection.html#t-cnn