目录

一、残差网络 ResNet

1.1 来源

1.2 残差块

◼ 残差块的结构细节

◼ 不同的残差块

1.3 ResNet的整体架构 

◼ ResNet块

◼ ResNet架构

1.3 总结

二、ResNet网络的代码实现

2.1 ResNet网络(使用自定义)


一、残差网络 ResNet

1.1 来源

VGG网络试着探寻了一下深度学习网络的深度究竟可以深到何种程度还可以持续提高分类的准确率。对于传统的深度学习网络,我们普遍认为网络深度越深(参数越多)非线性的表达能力越强,该网络所能学习到的东西就越多。我们凭借这一基本规则,经典的CNN网络从LetNet-5(5层)和AlexNet(8层)发展到VGGNet(16-19),再到后来GoogleNet(22层)。根据VGGNet的实验结果可知,在某种程度上网络的深度对模型的性能至关重要,当增加网络层数后,网络可以进行更加复杂的特征模式的提取,所以当模型更深时理论上可以取得更好的结果,从图1中也可以看出网络越深而效果越好的一个实践证据。

RESNET实现图像匹配 resnet torch_RESNET实现图像匹配

RESNET实现图像匹配 resnet torch_深度学习_02

但是更深的网络其性能一定会更好吗?

我们后来发现传统的CNN网络结构随着层数加深到一定程度之后,越深的网络反而效果更差,过深的网络竟然使分类的准确率下降了(相比于较浅的CNN而言)。 

残差网络 ResNet就是来源于这个思想, 加深,加更多的层一定会带来好处?总是改进精度吗?

举个例子,假设最优值在右侧图的那个地方,f1就是我的一个函数,可以认为函数的大小代表了函数的复杂程度。如果模型很简单的话,可能模型就能够覆盖f1这部分,所以能得到最好的值就是在这个区间里面最近的,所谓模型的偏差。

RESNET实现图像匹配 resnet torch_pytorch_03

我可以把模型变得更复杂,加更多的层,使得模型可以学更大的一块区域。假设f1到f6,模型逐渐复杂,那么模型学到的区域也就更多大。

但是,模型更复杂,一定会带来好处?答案是不见得的,不一定。

随着网络的加大加深,神经网络能够学到的东西也越来越多。但是他们极容易偏离原来的小模型,学到一些奇怪的东西。而我们希望的是如右图那样,越大的模型会包含小的模型,不至于越走越远。那么ResNet具体是怎么做的呢?

RESNET实现图像匹配 resnet torch_pytorch_03

蓝色五角星表示最优值。

标有Fi的闭合区域表示函数,闭合区域的面积代表函数的复杂程度,在这个区域中能够找到一个最优的模型(可以用区域中的一个点来表示,该点到最优值的距离可以用来衡量模型的好坏)。

RESNET实现图像匹配 resnet torch_RESNET实现图像匹配_05

 

从上图中可以看出,随着函数的复杂度的不断增加,虽然函数的区域面积增大了,但是在该区域中所能找到的最优模型(该区域内的某一点)离最优值的距离可能会越来越远(也就是模型所在的区域随着函数复杂度的增加,逐渐偏离了原来的区域,离最优值越来越远)(非嵌套函数(non-nested function))。

比如,如上图所示,f6的模型学到的最好值距离最优值的程度,明显比f1的模型学到的最好值距离,要更大。虽然f6的模型更加复杂,但是实际上可能学偏了,这就是所谓的模型偏差。

那么,我们应该怎么做呢?

解决上述问题(模型走偏)的方法:每一次增加函数复杂度之后函数所覆盖的区域会包含原来函数所在的区域(嵌套函数(nested function)),只有当较复杂的函数类包含复杂度较小的函数类时,才能确保提高它的性能,如下图所示,

RESNET实现图像匹配 resnet torch_RESNET实现图像匹配_06

f1变到f2,,,f6,增加模型的复杂度,每一次更复杂的模型其实是包含了前面的小模型,所以更复杂的模型能学到的就会严格的比前面的小模型更大,所以就不会变差。

也就是说,增加函数的复杂度只会使函数所覆盖的区域在原有的基础上进行扩充,而不会偏离原本存在的区域。

对于深度神经网络,如果能将新添加的层训练成恒等映射(identify function)f(x) = x,新模型和原模型将同样有效;同时,由于新模型可能得出更优的解来拟合训练数据集,因此添加层似乎更容易降低训练误差。

RESNET实现图像匹配 resnet torch_卷积_07

如果用电路做比喻的话,以前我们学到的LeNet,AlexNet,VGG等都是串联组成的网络结构,googlenet中inception块采用了并联的思想。而残差网络采取的是一种短路的思想,就是让更大的函数,等于小函数的累加。可以理解为,大的网络学习的时候,最差也不会比小网络差。

针对这个问题,何恺明等人提出了残差网络ResNet,它拿到了2015年ImageNet图像识别挑战赛的冠军,并深刻影响了后来深度神经网络的设计。

RESNET实现图像匹配 resnet torch_RESNET实现图像匹配_08

之前增加模型深度的方法都是层层堆叠的方法,ResNet的思想是在堆叠层数的同时不会增加模型的复杂度。

上图中左侧表示一个正常块,右侧表示一个残差块,

  • x:原始输入
  • f(x):理想映射(也是激活函数的输入)

对于正常块中来说,虚线框中的部分需要直接拟合出理想映射 f(x)

而对于残差块来说,同样的虚线框中的部分需要拟合出残差映射 f(x) - x,残差映射在现实中往往更容易优化。

如果以恒等映射 f(x) = x 作为所想要学出的理想映射 f(x),则只需要将残差块中虚线框内加权运算的权重和偏置参数设置为 0,f(x) 就变成恒等映射了。

在实际中,当理想映射 f(x) 极接近于恒等映射时,残差映射易于捕捉恒等映射的细微波动
在残差块中,输入可以通过跨层数据线路更快地向前传播 。

1.2 残差块

RESNET实现图像匹配 resnet torch_pytorch_09

 假设g(x)是新加的东西,

①这样直接加保证了最优解“至少不会变差”,g(x)=0是和以前一样的。假设没有学到任何东西,则g(x)为0。

② 这个x实际上是f0(x),就是上幅图小的部分,f(x)是f1(x),新函数包含原函数。

大致意思是这个网络允许嵌入之前小一点的网络,使得先去拟合小网络。

◼ 残差块的结构细节

RESNET实现图像匹配 resnet torch_深度学习_10

左边是ResNet的第一种实现(不包含1 * 1卷积层的残差块),它直接将输入加在了叠加层的输出上面。

右边是ResNet的第二种实现(包含1 * 1卷积层的残差块),它先对输入进行了1 * 1的卷积变换通道(改变范围),再加入到叠加层的输出上面。

正常情况下,Relu之后就直接出去了, 但是现在就是说,X输入还会加在BN上,然后做Relu出去。

ResNet沿用了VGG完整的3 * 3卷积层设计。

残差块中首先有2个相同输出通道数的3 * 3卷积层,每个卷积层后面接一个批量归一化层和ReLu激活函数;通过跨层数据通路,跳过残差块中的两个卷积运算,将输入直接加在最后的ReLu激活函数前(这种设计要求2个卷积层的输出与输入形状一样,这样才能使第二个卷积层的输出(也就是第二个激活函数的输入)和原始的输入形状相同,才能进行相加)。

如果想要改变通道数,就需要引入一个额外的1 * 1的卷积层来将输入变换成需要的形状后再做相加运算(如上图中右侧含1 * 1卷积层的残差块)。

◼ 不同的残差块

当然,也可以使用不同的残差块,各种各样不同的残差块设计,

RESNET实现图像匹配 resnet torch_人工智能_11

1.3 ResNet的整体架构 

◼ ResNet块

原本的ResNet和VGG类似,共有两种不同的ResNet块:

  • 第一种是高宽减半的ResNet块:第一个卷积层的步幅等于2,使得高宽减半,通道数翻倍;
  • 第二种是高宽不减半的RexNet块,如上图上半部分所示,重复多次,所有卷积层的步幅等于1;

RESNET实现图像匹配 resnet torch_人工智能_12

所谓的高宽减半,是在第一个ResNet块的卷积层里面,g(x)高宽减半的同时,1x1 conv的strides=2,等于是把x高宽减半了。通常来说也会把通道数增加一倍。

接下来的strides全部都是等于1,也就是说接多个高宽不变的ResNet块。

整个这个东西叫做ResNet块,把这个大小重复几次。第一块就是strides=2会高宽减半,后面接一堆差不多的高宽不变的ResNet块。

通过不同的ResNet块的数量,以及它的输出通道数的不同,我们可以得到不同的ResNet的架构。

◼ ResNet架构

RESNET实现图像匹配 resnet torch_人工智能_13

ResNet的整体架构类似于VGG和GoogLeNet的总体架构,还是非常相似的,但是替换成了ResNet块(ResNet块的每个卷积层后增加了批量归一化层)。

ResNet的前两层和GoogLeNet中的一样,也分成了5个stage:在输出通道数为64、步幅为2的7 * 7卷积层出来后,加入BN,加入一个步幅为2的3 * 3的最大池化层,然后是不同的ResNet块,最后有一个全局的平均池化层。

GoogLeNet在后面接了4由Inception块组成的模块;ResNet使用了4个由残差块组成的模块,每个模块使用若干个同样输出通道数的残差块,第一个模块的通道数同输入通道数一致;由于之前已经使用了步幅为2的最大汇聚层,所以无需减小高和宽;之后每个模块在第一个残差块里将上一个模块的通道数翻倍,并将高和宽减半。

通过配置不同的通道数和模块中的残差块数可以得到不同的ResNet模型:ResNet-18:每个模块都有4个卷积层(不包含恒等映射的1 * 1卷积层),再加上第一个7 * 7卷积层和最后一个全连接层,一共有18层;还有更深的152层的ResNet-152。

RESNET实现图像匹配 resnet torch_人工智能_14

图中所示的是ResNet-152(经过两三次改良之后的版本)在ImageNet数据集上分类任务的精度
模型的层数越少通常速度越快,精度越低,层数越多,精度越低。
ResNet 152是一个经常用来刷分的模型,在实际中使用的比较少。

1.3 总结

RESNET实现图像匹配 resnet torch_深度学习_15

残差块使得很深的网络更加容易训练(不管网络有多深,因为有跨层数据通路连接的存在,使得始终能够包含小的网络,因为跳转连接的存在,所以会先将下层的小型网络训练好再去训练更深层次的网络),甚至可以训练一千层的网络(只要内存足够,优化算法就能够实现)。

学习嵌套函数是神经网络的理想情况,在深层神经网络中,学习另一层作为恒等映射比较容易
残差映射可以更容易地学习同一函数,例如将权重层中的参数近似为零。

利用残差块可以训练出一个有效的深层神经网络:输入可以通过层间的残余连接更快地向前传播
残差网络对随后的深层神经网络的设计产生了深远影响,无论是卷积类网络还是全连接类网络,几乎现在所有的网络都会用到,因为只有这样才能够让网络搭建的更深。

二、ResNet网络的代码实现

2.1 ResNet网络(使用自定义)

(1)ResNet网络(使用自定义)

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2l

class Residual (nn.Module):
    # 输入通道数,输出通道数,是否使用1X1的卷积层,步幅
    def __init__(self, input_channels, num_channels, use_1x1conv=False,strides=1): # num_channels为输出channel数  
        super().__init__()
        self.conv1 = nn.Conv2d(input_channels, num_channels, kernel_size=3, padding=1, stride=strides) # 可以使用传入进来的strides 
        self.conv2 = nn.Conv2d(num_channels, num_channels, kernel_size=3, padding=1)   # 使用nn.Conv2d默认的strides=1
        if use_1x1conv:  # 如果使用1X1的卷积层,会再构造一个conv3,会把input_channels变换到output_channels,才能匹配到高宽
            self.conv3 = nn.Conv2d(input_channels, num_channels, kernel_size=1, stride=strides)   
        else:  # 如果不使用1X1的卷积层
            self.conv3 = None
        self.bn1 = nn.BatchNorm2d(num_channels)
        self.bn2 = nn.BatchNorm2d(num_channels)
        self.relu = nn.ReLU(inplace=True)  # inplace原地操作,不创建新变量,对原变量操作,节约内存
        
    def forward(self, X):
        Y = F.relu(self.bn1(self.conv1(X)))  # 丢到第一个卷积层,丢到第一个BN层, relu
        Y = self.bn2(self.conv2(Y))  # 丢到第2个卷积层,丢到第2个BN层
        if self.conv3:  # 如果有第三次,对于X直接作用1X1的卷积,改写输入
            X = self.conv3(X)
        Y += X 
        return F.relu(Y)

(2)输入和输出形状一致,也就是说高宽和通道数都满意发生变化。因为stride用的默认的1,所以宽高没有变化。如果strides用2,则宽高减半。

# 输入和输出形状一致
blk = Residual(3,3) # 输入三通道,输出三通道
X = torch.rand(4,3,6,6) 
Y = blk(X) # stride用的默认的1,所以宽高没有变化。如果strides用2,则宽高减半
Y.shape

RESNET实现图像匹配 resnet torch_卷积_16

(3)增加输出通道数的同时,减半输出的高和宽,

# 增加输出通道数的同时,减半输出的高和宽
blk = Residual(3,6,use_1x1conv=True,strides=2)  # 由3变为6,通道数加倍
blk(X).shape

RESNET实现图像匹配 resnet torch_RESNET实现图像匹配_17

可以看到,通道数从3变成了6,高宽从6变成了3。

(4)ResNet模型的实现

ResNet的第一个stage,是一个7X7的卷积层,加一个BatchNorm2d,加一个ReLU,然后一个MaxPool2d,

# ResNet的第一个stage
b1 = nn.Sequential(nn.Conv2d(1,64,kernel_size=7,stride=2,padding=3),
                  nn.BatchNorm2d(64),nn.ReLU(),
                  nn.MaxPool2d(kernel_size=3,stride=2,padding=1))

# class Residual为小block,resnet_block 为大block,为Resnet网络的一个stage
def resnet_block(input_channels,num_channels,num_residuals,first_block=False):
    """输入通道数,输出通道数,要多少个resnet块,是否是第一个(特判)"""
    blk = []
    for i in range(num_residuals):
        if i == 0 and not first_block: # stage中不是第一个block那么stride=2高宽减半
            blk.append(Residual(input_channels, num_channels, use_1x1conv=True,strides=2))   
        else:
            blk.append(Residual(num_channels, num_channels))
    return blk

# 因为b1做了两次宽高减半,nn.Conv2d、nn.MaxPool2d,所以b2中的首次就不减半了。重复2个block 
b2 = nn.Sequential(*resnet_block(64,64,2,first_block=True))   
b3 = nn.Sequential(*resnet_block(64,128,2)) # b3、b4、b5的首次卷积层都减半,通道数加倍,重复2个block
b4 = nn.Sequential(*resnet_block(128,256,2)) # b4的首次卷积层都减半,通道数加倍,重复2个block
b5 = nn.Sequential(*resnet_block(256,512,2)) # b5的首次卷积层都减半,通道数加倍,重复2个block。最后变成512
# 最后加入一个全局的平均池化层
net = nn.Sequential(b1,b2,b3,b4,b5,nn.AdaptiveAvgPool2d((1,1)),nn.Flatten(),nn.Linear(512,10))

观察一下ReNet中不同模块的输入形状是如何变化的,

# 观察一下ReNet中不同模块的输入形状是如何变化的
X = torch.rand(size=(1,1,224,224))
for layer in net:
    X = layer(X)
    print(layer.__class__.__name__,'output shape:\t',X.shape) # 通道数翻倍、模型减半

RESNET实现图像匹配 resnet torch_人工智能_18

1.假设输入X为224X224,那么第一个stage出来的就直接除以4变成了56X56,因为我们做了stride=2的卷积层,然后还有一个MaxPool2d。然后通道数变成了64。


Sequential output shape: torch.Size([1, 64, 56, 56])


2.第二个stage,因为我们特判了,所以没有对高宽减半,也没有改变通道数,


Sequential output shape: torch.Size([1, 64, 56, 56])


3.后面的基本上就是,通道数翻倍、高宽减半。


Sequential output shape: torch.Size([1, 128, 28, 28]) Sequential output shape: torch.Size([1, 256, 14, 14]) Sequential output shape: torch.Size([1, 512, 7, 7])


4.进入一个全局的平均池化层,把7X7变成了1X1。


AdaptiveAvgPool2d output shape: torch.Size([1, 512, 1, 1])


5.最后线性层。


Flatten output shape: torch.Size([1, 512]) Linear output shape: torch.Size([1, 10])


这就是ResNet。

(5)训练模型

# 训练模型
lr, num_epochs, batch_size = 0.05, 10, 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=96)  
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())

RESNET实现图像匹配 resnet torch_卷积_19

这个模型还是挺厉害的,只跑了10次,就使得训练精度到了0.99,测试精度为0.88, 相对来说过拟合了一些。因为我们是用了一个比较大的224X224的输入,之前的VGG都是用的96X96。反过来讲,ResNet确实是一个比较强的网络。