目录

  • 1、感受野(Receptive Field)
  • 2、上采样(upsampling)
  • 3、残差网络(Resnet)
  • 4、人工神经网络(ANN)
  • 5、 卷积神经网络(CNN)
  • 6、经典的卷积神经网络
  • 7、 循环神经网络或递归神经网络(RNN)
  • 8、 LSTM
  • 9、对抗神经网络(GAN)
  • 10、[孪生网络( Siamese Network)]()
  • 11、 [语义分割]()
  • 12、下采样(subsampled)


1、感受野(Receptive Field)

感受野的定义是卷积神经网络每一层输出的特征图(feature map)上的像素点在输入图片上映射的区域大小

获取神经网络的访存量 神经网络 上采样_计算机视觉

参考:

2、上采样(upsampling)

上采样:又名放大图像、图像插值;

主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上;

上采样有3种常见的方法:双线性插值(bilinear),反卷积(Transposed Convolution),反池化(Unpooling);
插值算法还包括了传统插值,基于边缘图像的插值,还有基于区域的图像插值。

3、残差网络(Resnet)

56层比20层要错误要高很多,那多的36层怎么搞,需要来进行同等映射,不能剔除,那就把有用的层保持,无用的层权重参数变成0
原来卷积结果+最初的,旧和新的相加,里面可能有白玩的,好的用,错的白玩,这样就能保证至少不比原来差

获取神经网络的访存量 神经网络 上采样_深度学习_02


50层101层比较常见

4、人工神经网络(ANN)

单个感知器(或神经元)可以想象为逻辑回归。人工神经网络(ANN)是一组多层感知器/神经元。ANN也被称为前馈神经网络,因为输入只在正向处理:

获取神经网络的访存量 神经网络 上采样_神经网络_03


ANN由3层组成:输入层、隐藏层和输出层。输入层接受输入,隐藏层处理输入,输出层生成结果。本质上,每一层都试图学习某些权重。

有激活函数ANN可用于解决与以下相关的问题:

表格数据

图像数据

文本数据

获取神经网络的访存量 神经网络 上采样_卷积_04

获取神经网络的访存量 神经网络 上采样_深度学习_05

5、 卷积神经网络(CNN)

有卷积核,可以输入图像
其一是局部感受野,其二是权值共享,其三是 pooling 层,
卷积神经网络,也叫 CNN,由纽约大学的 Yann Lecun 于 1998 年提出,其本质是一个多层感知机,成功的原因在于其所采用的局部连接和权值共享的方式:
卷积和池化层:叠加实现对输入数据的特征提取,最后链接全连接层实现分类
对图像处理有出色表现,在计算机视觉中得到广泛应用

卷积神经网络:卷积层+池化层+全连接层

  1. 每个神经元只需要对 局部图像 进行感知
  2. 将在更高层将局部信息综合起来,得到全局信息
  3. 应用:图像分类、目标检测、目标跟踪、语义分割、实例分割等

6、经典的卷积神经网络


  1. LeNet5:LeNet5是由Y.LeCun等人提出的,主要进行手写数字识别和英文字母识别。没啥特点-不过是第一个CNN应该要知道
  2. AlexNet:引入了 ReLU 和 dropout,引入数据增强、池化相互之间有覆盖,三个卷积一个最大池化+三个全连接层
  3. VGG-16
  4. Inception Net:这个在控制了计算量和参数量的同时,获得了比较好的分类性能,和上面相比有几个大的改进:1、去除了最后的全连接层,而是用一个全局的平均池化来取代它; 2、引入 Inception Module,这是一个4个分支结合的结构。所有的分支都用到了 1x1 的卷积,这是因为 1x1 性价比很高,可以用很少的参数达到非线性和特征变换。3、Inception V2第二版将所有的 5x5 变成 2 个 3x3,而且提出来著名的 Batch Normalization;4、Inception V3 第三版就更变态了,把较大的二维卷积拆成了两个较小的一维卷积,加速运算、减少过拟合,同时还更改了 Inception Module 的结构。
  5. ResNet(残差神经网络):1、引入高速公路结构,可以让神经网络变得非常深 2、ResNet第二个版本将ReLU激活函数变成y=x的线性函数
  6. DenseNet (密集网络)
  7. UNet

R-CNN系列:另外发展起来的

获取神经网络的访存量 神经网络 上采样_获取神经网络的访存量_06

7、 循环神经网络或递归神经网络(RNN)

在传统神经网络上改进的,有圈

输入——隐层——输出

在处理时间序列上有先天优势

CNN主要用来计算机视觉中,Rnn多用在自然语言处理中


获取神经网络的访存量 神经网络 上采样_深度学习_07


获取神经网络的访存量 神经网络 上采样_神经网络_08

8、 LSTM

rnn每一个都堪称同等重要,但是每一个重要性不同,此模型就是将不重要的淘汰

过滤信息

获取神经网络的访存量 神经网络 上采样_获取神经网络的访存量_09


获取神经网络的访存量 神经网络 上采样_神经网络_10


获取神经网络的访存量 神经网络 上采样_神经网络_11

9、对抗神经网络(GAN)

一种用来学习类别特征的神经网络结构,主要由两部分组成,生成网络、判别网络


获取神经网络的访存量 神经网络 上采样_深度学习_12

10、孪生网络( Siamese Network)

孪生网络最早用于验证支票上的签名与银行预留签名是否一致,后用于对比两个输入的相似度,随后又慢慢应用到目标跟踪领域。

11、 语义分割 12、下采样(subsampled)

下采样:又名降采样、缩小图像;

主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图;

其实下采样就是池化