文章和代码已经归档至【Github仓库:<https://github.com/timerring/dive-into-AI> 】或者公众号【AIShareLab】回复 神经网络基础 也可获取。

神经网络入门

  • 神经网络与多层感知机:基础知识,激活函数、反向传播、损失函数、权值初始化和正则化
  • 卷积神经网络:统治图像领域的神经网络结构,发展历史、卷积操作和池化操作
  • 循环神经网络:统治序列数据的神经网络结构,RNN、GRU和LSTM

学习资源推荐

  1. 吴恩达的深度学习课程: <https://www.deeplearning.ai>
  2. 李宏毅的深度学习课程
  3. 《deeplearning》俗称花书: <https://github.com/exacity/deeplearningbook-chinese>
  4. 周志华的《机器学习》

人工神经元

Artificial Neural Unit

人工神经元: 人类神经元中抽象出来的数学模型

神经网络入门基础知识_损失函数

1904年研究出人类神经元,其中:

  • 树突:类似于input
  • 细胞核:类似于operation :处理操作+激活函数
  • 轴突末梢:类似于output

神经网络入门基础知识_激活函数_02

1943年心理学家W\.S. McCulloch和数理逻辑学家W\.Pitts研究出人工神经元,称为M-Р模型。

神经网络入门基础知识_损失函数_03

人工神经网络: 大量神经元以某种连接方式构成的机器学习模型

神经网络入门基础知识_损失函数_04

第一个神经网络:1958年,计算机科学家Rosenblatt提出的Perceptron(感知机)

神经网络入门基础知识_权值_05

神经网络入门基础知识_权值_06

引发了第一波神经网络的热潮,但感知机的致命缺点是:Minsky在1969年证明Perceptron无法解决异或问题。根源在于,二维层面上神经网络是一条直线。无法划分异或的区间。

神经网络入门基础知识_激活函数_07

神经网络入门基础知识_损失函数_08

多层感知机

多层感知机(Multi Layer Perceptron,MLP):单层神经网络基础上引入一个或多个隐藏层,使神经网络有多个网络层,因而得名多层感知机。

神经网络入门基础知识_损失函数_09

神经网络入门基础知识_激活函数_10

隐藏层的输入权重矩阵是 神经网络入门基础知识_损失函数_11

隐藏层的权重矩阵是 $W_{5 \times 3} $

前向传播:(以下方便起见省略了偏置)

神经网络入门基础知识_权值_12

整个过程如果没有激活函数,网络退化为单层网络,下面证明:

神经网络入门基础知识_损失函数_13

可见,最终网络还是可以化简替代,退化为XW+b的单层网络。

当隐藏层加入激活函数,可避免网络退化

神经网络入门基础知识_权值_14

激活函数

作用:

  1. 让多层感知机成为真正的多层,否则等价于一层;
  2. 引入非线性,使网络可以逼近任意非线性函数(详见:万能逼近定理,universal approximator)

激活函数需要具备以下几点性质:

  1. 连续并可导(允许少数点上不可导),便于利用数值优化的方法来学习网络参数
  2. 激活函数及其导函数要尽可能的简单,有利于提高网络计算效率
  3. 激活函数的导函数的值域要在合适区间内,反向传播中会使用到激活函数的导函数,数值会影响到权重的更新,不能太大也不能太小,否则会影响训练的效率和稳定性。

常见激活函数:Sigmoid(S型) , Tanh(双曲正切), ReLU(修正线性单元)

Sigmoid(S型)

常用于RNN以及二分类中。做二分类的输出的激活函数;做循环神经网络中门控单元的激活函数。

神经网络入门基础知识_激活函数_15

有饱和区,导函数的饱和区(神经元的值差不多,梯度差不多),更新困难。

神经网络入门基础知识_损失函数_16

Tanh(双曲正切)

特点,零均值。同样存在饱和区,不利于梯度传播。中间的是线性区

神经网络入门基础知识_权值_17

神经网络入门基础知识_权值_18

ReLU(修正线性单元)

不存在饱和区,卷积神经网络中经常使用。

神经网络入门基础知识_权值_19

神经网络入门基础知识_权值_20

反向传播(Back Propagation)

前向传播

输入层数据从前向后,数据逐步传递至输出层

神经网络入门基础知识_权值_21

反向传播

损失函数开始从后向前,梯度逐步传递至一层

反向传播作用:用于权重更新,使网络输出更接近标签

损失函数:衡量模型输出与真实标签的差异,神经网络入门基础知识_激活函数_22

反向传播原理:微积分中的链式求导法则

神经网络入门基础知识_激活函数_23

神经网络入门基础知识_激活函数_24

其中,神经网络入门基础知识_权值_25 代表激活函数。神经网络入门基础知识_损失函数_26代表损失函数。

神经网络入门基础知识_损失函数_27

其中,prod(x,y) 表示x与y根据形状做必要的交换,然后相乘。神经网络入门基础知识_权值_28表示逐元素相乘。通过上述式子,可以容易发现,存在链式关系,即后一项的梯度可以用于前一项的梯度上。

从Loss出发有多少条通路,梯度就有多少项,进行相加。上图所示,只有一条通路。用蓝笔画的圆圈,则是两条通路。

梯度下降法(Gradient Decent)

梯度下降法(Gradient Decent):权值沿梯度负方向更新,使函数值减小

导数:函数在指定坐标轴上的变化率

方向导数:指定方向上的变化率(在多维空间)

梯度:一个向量,方向为方向导数取得最大值的方向。

神经网络入门基础知识_激活函数_29

神经网络入门基础知识_损失函数_30

学习率(Learning Rate)

学习率(Learning Rate):控制更新步长

沿梯度负方向更新

神经网络入门基础知识_权值_31

例:

神经网络入门基础知识_损失函数_32

对比:

无学习率:神经网络入门基础知识_激活函数_33

有学习率:神经网络入门基础知识_权值_34

不同学习率的影响:分别为1——0.25——0.24——0.1

神经网络入门基础知识_权值_35

损失函数(Loss Function)

损失函数:衡量模型输出与真实的标签之间的差距

损失函数(Loss Function)

描述的单样本的差异值

神经网络入门基础知识_损失函数_36

代价函数 (Cost Function)

描述的是总体样样本\整个数据集的Loss的平均值

神经网络入门基础知识_激活函数_37

目标函数(Objective Function)

模型输出与标签之间的差异+正则项(控制模型复杂度防止过拟合现象)

神经网络入门基础知识_激活函数_38

两种常见损失函数

MSE

MSE (均方误差, Mean Squared Error):输出与标签之差的平方的均值,常在回归任务中使用。计算公式:

神经网络入门基础知识_损失函数_39

公式中p代表predict。

例: label =(1,2) pred =(1.5,1.5)

神经网络入门基础知识_权值_40

CE

CE(Cross Entropy,交叉熵) :交叉熵源自信息论,用于衡量两个分布的差异,常在分类任务中使用。计算公式:

神经网络入门基础知识_损失函数_41

p是指真是分布,q是模型的分布,试图用q去逼近p。分布之间的距离是没有对应关系的。在给定 p 的情况下,如果 q 和 p 越接近,交叉熵越小;如果 q 和 p 越远,交叉熵就越大。

  • 自信息神经网络入门基础知识_激活函数_42 , p(x) 是某事件发生的概率
  • 信息熵:描述信息的不确定度,信息熵越大信息越不确定,信息熵越小
    信息熵 = 所有可能取值的信息量的期望,即

神经网络入门基础知识_损失函数_43

  • 相对熵:又称K-L散度衡量两个分布之间的差异。用概率分布 q 来近似 p 时所造成的信息损失量.KL 散度是按照概率分布q的最优编码对真实分布为p的信息进行编码,其平均编码长度(即交叉熵)𝐻(p, q) 和 p 的最优平均编码长度(即熵)𝐻(p) 之间的差异.神经网络入门基础知识_损失函数_44

由上式可知,神经网络入门基础知识_权值_45 ,即 交叉熵 = 信息熵 + 相对熵

又因为信息熵是一个关于p(真实分布)的常数,因此优化交叉熵等价于优化相对熵

举例:计算损失函数(分类任务)

神经网络入门基础知识_权值_46

神经网络入门基础知识_权值_47

这里predict应该是一个概率分布的形式,模型输出如果想化为概率的形式,可以采用softmax函数。

softmax

Softmax函数可以将多个标量映射为一个概率分布。(将数据变换到符合概率分布的形式)

概率有两个性质:

  1. 概率值是非负的
  2. 概率之和等于1

神经网络入门基础知识_激活函数_48

概率

Softmax

概率值是非负的

取指数,实现非负

概率之和等于1

除以指数之和,实现之和为1

神经网络入门基础知识_权值_49

没有一个适合所有任务的损失函数,损失函数设计会涉及算法类型、求导是否容易、数据中异常值的分布等问题。

更多损失函数可到PyTorch网站:<https://pytorch.org/docs/stable/nn.html#loss-functions>

函数解读: <https://zhuanlan.zhihu.com/p/61379965>

权值初始化(Initialization)

权值初始化:训练前对权值参数赋值,良好的权值初始化有利于模型训练

神经网络入门基础知识_权值_50

简便但错误的方法:初始化为全0——使网络层退化,多少个神经元都等于一个神经元,没有训练的意义。

随机初始化法

高斯分布随机初始化,从高斯分布中随机采样,对权重进行赋值,比如 N~(0,0.01)

神经网络入门基础知识_权值_51

3神经网络入门基础知识_损失函数_52准则: 数值分布在(μ-3神经网络入门基础知识_损失函数_52,μ+3神经网络入门基础知识_损失函数_52)中的概率为99.73%

神经网络入门基础知识_权值_55

控制权值的尺度:不能让权值太小,如果权值过小,相当于网络退化。例如如果权值过大,会使得一些值落入sigmoid函数中的饱和区域,饱和区域中的梯度接近于0,使梯度消失,不利于模型的训练。

自适应标准差

自适应方法随机分布中的标准差

  • Xavier初始化:《Understanding the difficulty of training deep feedforward neural networks 》2010
    神经网络入门基础知识_权值_56
    a是输入神经元的个数,b是输出神经元的个数。假设神经网络入门基础知识_损失函数_57为A,神经网络入门基础知识_权值_58为B,则可知神经网络入门基础知识_激活函数_59神经网络入门基础知识_损失函数_60
  • Kaiming初始化/MSRA:《Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification》2015

正则化(Regularization)

Regularization:减小方差的策略,通俗理解为减轻过拟合的策略

误差可分解为:偏差,方差与噪声之和。即误差 = 偏差 + 方差 + 噪声之和(西瓜书)

  • 偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力
  • 方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响
  • 噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界

神经网络入门基础知识_权值_61

过拟合现象:方差过大;在训练集表现良好,在测试集表现糟糕。

损失函数(Loss Function):描述的单样本的差异值

神经网络入门基础知识_激活函数_62

代价函数 (Cost Function):描述的是总体样样本\整个数据集的Loss的平均值

神经网络入门基础知识_激活函数_63

目标函数(Objective Function):模型输出与标签之间的差异+正则项(约束)控制模型复杂度防止过拟合现象。

神经网络入门基础知识_权值_64

L1 Regularization Term: 神经网络入门基础知识_权值_65

L2 Regularization Term: $\sum_{\mathrm{i}}^{\mathrm{N}} \mathrm{w}_{\mathrm{i}}^{2} $

神经网络入门基础知识_激活函数_66

两个权值w1和w2组成的权值等高线,在所有等高线中选择L2正则化最小的(即圆与椭圆相切),L1正则化最小的(即方框与椭圆相切)。

参考深度学习花书 第七章

L2 Regularization

weight decay (权值衰减)L2正则化含有权值衰减的作用。

目标函数(Objective Function):

神经网络入门基础知识_损失函数_67

无正则项:

神经网络入门基础知识_激活函数_68

有正则项:

神经网络入门基础知识_激活函数_69

这里神经网络入门基础知识_激活函数_70相当于一个系数, 神经网络入门基础知识_权值_71,看更关注Loss还是更关注正则项的一个调节系数。通过有无正则项的对比,可以看出L2正则化确实起到了衰减权值的作用。

神经网络入门基础知识_激活函数_72

Dropout

Dropout:随机失活

优点:避免过度依赖某个神经元,实现减轻过拟合

随机:dropout probability (eg:p=0.5)

失活:weight = 0

神经网络入门基础知识_损失函数_73

注意事项:训练和测试两个阶段的数据尺度变化,例如测试的时候会使用去全部的神经元,而在训练的时候会dropout一部分神经元。

测试时,神经元输出值需要乘以P(概率:一定概率丢失神经元)

例如:

测试时数据规模是100:神经网络入门基础知识_权值_74 这时需要乘一个随即失活的概率神经网络入门基础知识_激活函数_75,使数据规模与训练时一致。

训练时数据规模是50:神经网络入门基础知识_权值_76 这里有50%概率神经网络入门基础知识_激活函数_75 dropout每个神经元。

其他正则化方法:BN, LN, IN, GN.

  • Batch normalization: 《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》
  • Layer Normalization: 《Layer Normalization》
  • Instance Normalization: 《Instance Normalization: The Missing Ingredient for Fast Stylization》
  • Group Normalization:《Group Normalization》