概述

以监督学习为例,假设我们有训练样本集(x(i),y(i)),那么神经网络算法能够提供一种复杂且非线性的的假设模型hw,b(x),它具有参数W,b,可以以此参数来拟合我们的数据。

为了描述神经网络,我们先从最简单的神经网络讲起,这个神经网络仅由一个“神经元”构成,以下即是这个神经元的图示:

 

grnn神经网络模型iris grnn神经网络模型函数_激活函数

这个“神经元”是一个以x1,x2,x3及截距+1为输入值的运算单元,其输出为

 

grnn神经网络模型iris grnn神经网络模型函数_激活函数_02

其中函数

grnn神经网络模型iris grnn神经网络模型函数_神经网络_03

被称为“激活函数”。在本教程中,我们选择sigmoid函数作为激活函数f(.)                      


f(z) = \frac{1}{1+\exp(-z)}.

可以看出,这个单一“神经元”的输入——输出映射关系其实就是一个逻辑回归(logistic regression).

虽然本系列教程采用sigmoid函数,但你也可以选择双曲正切函数(tanh):


f(z) = \tanh(z) = \frac{e^z - e^{-z}}{e^z + e^{-z}},

以下分别是sigmoid及tanh的函数图像

grnn神经网络模型iris grnn神经网络模型函数_样本集_04

grnn神经网络模型iris grnn神经网络模型函数_激活函数_05

 

grnn神经网络模型iris grnn神经网络模型函数_样本集_06

函数是sigmoid函数的一种变体,它的取值范围为

grnn神经网络模型iris grnn神经网络模型函数_激活函数_07

,而不是sigmoid函数的

grnn神经网络模型iris grnn神经网络模型函数_激活函数_08

。最后要说明的是,有一个等式我们以后会经常用到:如果选择

grnn神经网络模型iris grnn神经网络模型函数_样本集_09

,也就是sigmoid函数,那么它的导数就是

grnn神经网络模型iris grnn神经网络模型函数_激活函数_10

(如果选择tanh函数,那它的导数就是

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_11

,你可以根据sigmoid(或tanh)函数的定义自行推导这个等式。

神经网络模型

所谓神经网络就是将许多个单一“神经元”联结在一起,这样,一个“神经元”的输出就可以是另一个“神经元”的输入。例如,下图就是一个简单的神经网络:

grnn神经网络模型iris grnn神经网络模型函数_样本集_12

我们使用圆圈来表示神经网络的输入,标上“

grnn神经网络模型iris grnn神经网络模型函数_激活函数_13

”的圆圈被称为偏置节点,也就是截距项。神经网络最左边的一层叫做输入层,最右的一层叫做输出层(本例中,输出层只有一个节点)。中间所有节点组成的一层叫做隐藏层,因为我们不能在训练样本集中观测到它们的值。同时可以看到,以上神经网络的例子中有3个输入单元(偏置单元不计在内),3个隐藏单元及一个输出单元。     我们用

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_14

来表示网络的层数,本例中

grnn神经网络模型iris grnn神经网络模型函数_神经网络_15

,我们将第

grnn神经网络模型iris grnn神经网络模型函数_样本集_16

层记为

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_17

,于是

grnn神经网络模型iris grnn神经网络模型函数_样本集_18

是输入层,输出层是

grnn神经网络模型iris grnn神经网络模型函数_样本集_19

。  本例神经网络有参数

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_20

,其中

grnn神经网络模型iris grnn神经网络模型函数_神经网络_21

(下面的式子中用到)是第

grnn神经网络模型iris grnn神经网络模型函数_样本集_16

层第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_23

单元与第

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_24

层第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_25

单元之间的联接参数(其实就是连接线上的权重,注意标号顺序),

grnn神经网络模型iris grnn神经网络模型函数_样本集_26

是第

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_24

层第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_25

单元的偏置项。因此在本例中,

grnn神经网络模型iris grnn神经网络模型函数_激活函数_29


grnn神经网络模型iris grnn神经网络模型函数_神经网络_30

。     注意:没有其他单元连向偏置单元(即偏置单元没有输入),因为它们总是输出+1.同时。同时,我们用

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_31

表示第

grnn神经网络模型iris grnn神经网络模型函数_样本集_16

层的节点数(偏置单元不计在内)。     我们用

grnn神经网络模型iris grnn神经网络模型函数_神经网络_33

表示第

grnn神经网络模型iris grnn神经网络模型函数_样本集_16

层第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_25

单元的激活值(输出值)。当

grnn神经网络模型iris grnn神经网络模型函数_样本集_36

时,

grnn神经网络模型iris grnn神经网络模型函数_神经网络_37

,也就是第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_25

个输入值(输入值的第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_25

个特征)。对于给定参数集合

grnn神经网络模型iris grnn神经网络模型函数_激活函数_40

,我们的神经网络就可以按照函数

grnn神经网络模型iris grnn神经网络模型函数_神经网络_41

来计算输出结果。本例神经网络的计算步骤如下:

 

 
\begin{align}
a_1^{(2)} &= f(W_{11}^{(1)}x_1 + W_{12}^{(1)} x_2 + W_{13}^{(1)} x_3 + b_1^{(1)})  \\
a_2^{(2)} &= f(W_{21}^{(1)}x_1 + W_{22}^{(1)} x_2 + W_{23}^{(1)} x_3 + b_2^{(1)})  \\
a_3^{(2)} &= f(W_{31}^{(1)}x_1 + W_{32}^{(1)} x_2 + W_{33}^{(1)} x_3 + b_3^{(1)})  \\
h_{W,b}(x) &= a_1^{(3)} =  f(W_{11}^{(2)}a_1^{(2)} + W_{12}^{(2)} a_2^{(2)} + W_{13}^{(2)} a_3^{(2)} + b_1^{(2)}) 
\end{align}

我们用

grnn神经网络模型iris grnn神经网络模型函数_神经网络_42

表示第

grnn神经网络模型iris grnn神经网络模型函数_样本集_16

层第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_25

单元输入加权和(包括偏置单元),比如,

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_45

,则

grnn神经网络模型iris grnn神经网络模型函数_激活函数_46

。 。这样我们就可以得到一种更简洁的表示法。这里我们将激活函数f(.)扩展为用向量(分量的形式)来表示,即

grnn神经网络模型iris grnn神经网络模型函数_神经网络_47

,那么,上面的等式可以更简洁地表示为:

\begin{align}
z^{(2)} &= W^{(1)} x + b^{(1)} \\
a^{(2)} &= f(z^{(2)}) \\
z^{(3)} &= W^{(2)} a^{(2)} + b^{(2)} \\
h_{W,b}(x) &= a^{(3)} = f(z^{(3)})
\end{align}

我们将上面的计算步骤叫作前向传播。回想一下,之前我们用

grnn神经网络模型iris grnn神经网络模型函数_神经网络_48

表示输入层的激活值,那么给定第

grnn神经网络模型iris grnn神经网络模型函数_样本集_16

层的激活值

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_50

后,第

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_24

层的激活值

grnn神经网络模型iris grnn神经网络模型函数_神经网络_52

就可以按照下面步骤计算得到:

 \begin{align}
z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)}   \\
a^{(l+1)} &= f(z^{(l+1)})
\end{align}

将参数矩阵化,使用矩阵-向量运算方式,我们就可以利用线性代数的优势对神经网络进行快速求解。 

神经元之间的联结模式),也就是包含多个隐藏层的神经网络。最常见的一个例子是

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_53

层的神经网络,第

grnn神经网络模型iris grnn神经网络模型函数_神经网络_54

层是输入层,第

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_53

层是输出层,中间的每个层

grnn神经网络模型iris grnn神经网络模型函数_样本集_56

与层

grnn神经网络模型iris grnn神经网络模型函数_神经网络_57

紧密相联。这种模式下,要计算神经网络的输出结果,我们可以按照之前描述的等式,按部就班,进行前向传播,逐一计算第

grnn神经网络模型iris grnn神经网络模型函数_激活函数_58

层的所有激活值,然后是第

grnn神经网络模型iris grnn神经网络模型函数_样本集_59

层的激活值,以此类推,直到第

grnn神经网络模型iris grnn神经网络模型函数_神经网络_60

层。这是一个前馈神经网络的例子,因为这种联接图没有闭环或回路。 神经网络也可以有多个输出单元。比如,下面的神经网络有两个隐藏层:

grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_61


grnn神经网络模型iris grnn神经网络模型函数_grnn神经网络模型iris_62

,输出层

grnn神经网络模型iris grnn神经网络模型函数_激活函数_63

有两个输出单元。

grnn神经网络模型iris grnn神经网络模型函数_激活函数_64

要求解这样的神经网络,需要样本集

grnn神经网络模型iris grnn神经网络模型函数_样本集_65

,其中

grnn神经网络模型iris grnn神经网络模型函数_激活函数_66

。如果你想预测的输出是多个的,那这种神经网络很适用。(比如,在医疗诊断应用中,患者的体征指标就可以作为向量的输入值,而不同的输出值

grnn神经网络模型iris grnn神经网络模型函数_样本集_67

可以表示不同的疾病存在与否。)

 

中英文对照:

neural networks 神经网络

activation function 激活函数

hyperbolic tangent 双曲正切函数

bias units 偏置项

activation 激活值

forward propagation 前向传播

feedforward neural network 前馈神经网络