第二周:神经网络的编程基础(Basics of Neural Network programming)

文章目录

  • 第二周:神经网络的编程基础(Basics of Neural Network programming)
  • 2.1 二分类(Binary Classification)
  • 2.2 逻辑回归(Logistic Regression)
  • 2.3 逻辑回归的代价函数(Logistic Regression Cost Function)
  • 2.4 梯度下降法(Gradient Descent)
  • 2.5 导数(Derivatives)
  • 2.6 更多的导数例子(More Derivative Examples)
  • 2.7 计算图(Computation Graph)
  • 2.8 使用计算图求导数(Derivatives with a Computation Graph)
  • 2.9 逻辑回归中的梯度下降(Logistic Regression Gradient Descent)
  • 2.10 m 个样本的梯度下降(Gradient Descent on m Examples)
  • 2.11 向量化(Vectorization)
  • 2.12 向量化的更多例子(More Examples of Vectorization)
  • 2.13 向量化逻辑回归(Vectorizing Logistic Regression)
  • 2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression's Gradient)
  • 2.15 Python 中的广播(Broadcasting in Python)
  • 2.16 关于 python _ numpy 向量的说明(A note on python or numpy vectors)参考视频:
  • 2.17 Jupyter/iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks)
  • 2.18 (选修)logistic 损失函数的解释(Explanation of logistic regression cost function)

2.1 二分类(Binary Classification)

这周我们将学习神经网络的基础知识,其中需要注意的是,当实现一个神经网络的时候,我们需要知道一些非常重要的技术和技巧。例如有一个包含

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个样本的训练集,你很可能习惯于用一个for循环来遍历训练集中的每个样本,但是当实现一个神经网络的时候,我们通常不直接使用for循环来遍历整个训练集,所以在这周的课程中你将学会如何处理训练集。

另外在神经网络的计算中,通常先有一个叫做前向暂停(forward pause)或叫做前向传播(foward propagation)的步骤,接着有一个叫做反向暂停(backward pause) 或叫做反向传播**(backward propagation**)的步骤。所以这周我也会向你介绍为什么神经网络的训练过程可以分为前向传播和反向传播两个独立的部分。

在课程中我将使用逻辑回归(logistic regression)来传达这些想法,以使大家能够更加容易地理解这些概念。即使你之前了解过逻辑回归,我认为这里还是有些新的、有趣的东西等着你去发现和了解,所以现在开始进入正题。

逻辑回归是一个用于二分类(binary classification)的算法。首先我们从一个问题开始说起,这里有一个二分类问题的例子,假如你有一张图片作为输入,比如这只猫,如果识别这张图片为猫,则输出标签1作为结果;如果识别出不是猫,那么输出标签0作为结果。现在我们可以用字母

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

来 表示输出的结果标签,如下图所示:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-L1dLNc8n-1611150677505)(…/images/269118812ea785aee00f6ffc11b5c882.png)]

我们来看看一张图片在计算机中是如何表示的,为了保存一张图片,需要保存三个矩阵,它们分别对应图片中的红、绿、蓝三种颜色通道,如果你的图片大小为64x64像素,那么你就有三个规模为64x64的矩阵,分别对应图片中红、绿、蓝三种像素的强度值。为了便于表示,这里我画了三个很小的矩阵,注意它们的规模为5x4 而不是64x64,如下图所示:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jiFQ7tgW-1611150677507)(…/images/1e664a86fa2014d5212bcb88f1c419cf.png)]

为了把这些像素值放到一个特征向量中,我们需要把这些像素值提取出来,然后放入一个特征向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

。为了把这些像素值转换为特征向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

,我们需要像下面这样定义一个特征向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

来表示这张图片,我们把所有的像素都取出来,例如255、231等等,直到取完所有的红色像素,接着最后是255、134、…、255、134等等,直到得到一个特征向量,把图片中所有的红、绿、蓝像素值都列出来。如果图片的大小为64x64像素,那么向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

的总维度,将是64乘以64乘以3,这是三个像素矩阵中像素的总量。在这个例子中结果为12,288。现在我们用

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_07

,来表示输入特征向量的维度,有时候为了简洁,我会直接用小写的

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_08

来表示输入特征向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

的维度。所以在二分类问题中,我们的目标就是习得一个分类器,它以图片的特征向量作为输入,然后预测输出结果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

为1还是0,也就是预测图片中是否有猫:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5QlgX3Ly-1611150677509)(…/images/e173fd42de5f1953deb617623d5087e8.png)]

接下来我们说明一些在余下课程中,需要用到的一些符号。

符号定义

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

:表示一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

维数据,为输入数据,维度为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_13


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_14

:表示输出结果,取值为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_15


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_16

:表示第

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_17

组数据,可能是训练数据,也可能是测试数据,此处默认为训练数据;

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_18

:表示所有的训练数据集的输入值,放在一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_19

的矩阵中,其中

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

表示样本数目;

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_21

:对应表示所有训练数据集的输出值,维度为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_22


用一对

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_23

来表示一个单独的样本,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

代表

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

维的特征向量,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

表示标签(输出结果)只能为0或1。

而训练集将由

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本组成,其中

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_28

表示第一个样本的输入和输出,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_29

表示第二个样本的输入和输出,直到最后一个样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_30

,然后所有的这些一起表示整个训练集。有时候为了强调这是训练样本的个数,会写作

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_31

,当涉及到测试集的时候,我们会使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_32

来表示测试集的样本数,所以这是测试集的样本数:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-99gnIs90-1611150677511)(…/images/12f602ed40ba90540112ae0fee77fadf.png)]

最后为了能把训练集表示得更紧凑一点,我们会定义一个矩阵用大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

的表示,它由输入向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_34


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_35

等组成,如下图放在矩阵的列中,所以现在我们把

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_34

作为第一列放在矩阵中,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_35

作为第二列,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_38

放到第

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

列,然后我们就得到了训练集矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

。所以这个矩阵有

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

列,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

是训练集的样本数量,然后这个矩阵的高度记为

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

,注意有时候可能因为其他某些原因,矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

会由训练样本按照行堆叠起来而不是列,如下图所示:

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_34

的转置直到

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_38

的转置,但是在实现神经网络的时候,使用左边的这种形式,会让整个实现的过程变得更加简单:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-4wpcVSjb-1611150677512)(…/images/1661e545ce5fd2c27b15444d5b69ec78.png)]

现在来简单温习一下:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是一个规模为

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

的矩阵,当你用Python实现的时候,你会看到​​X.shape​​,这是一条Python命令,用于显示矩阵的规模,即​​X.shape​​​等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_50


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是一个规模为

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

的矩阵。所以综上所述,这就是如何将训练样本(输入向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

的集合)表示为一个矩阵。

那么输出标签

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

呢?同样的道理,为了能更加容易地实现一个神经网络,将标签

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

放在列中将会使得后续计算非常方便,所以我们定义大写的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_57

等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_58

,所以在这里是一个规模为1乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

的矩阵,同样地使用Python将表示为​​Y.shape​​​等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_60

,表示这是一个规模为1乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

的矩阵。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HXLLCneD-1611150677513)(…/images/55345ba411053da11ff843bbb3406369.png)]

当你在后面的课程中实现神经网络的时候,你会发现,一个好的符号约定能够将不同训练样本的数据很好地组织起来。而我所说的数据不仅包括

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

还包括之后你会看到的其他的量。将不同的训练样本的数据提取出来,然后就像刚刚我们对

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

所做的那样,将他们堆叠在矩阵的列中,形成我们之后会在逻辑回归和神经网络上要用到的符号表示。如果有时候你忘了这些符号的意思,比如什么是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

,或者什么是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_08

,或者忘了其他一些东西,我们也会在课程的网站上放上符号说明,然后你可以快速地查阅每个具体的符号代表什么意思,好了,我们接着到下一个视频,在下个视频中,我们将以逻辑回归作为开始。

备注:附录里也写了符号说明。

2.2 逻辑回归(Logistic Regression)

在这个视频中,我们会重温逻辑回归学习算法,该算法适用于二分类问题,本节将主要介绍逻辑回归的Hypothesis Function(假设函数)。

对于二元分类问题来讲,给定一个输入特征向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

,它可能对应一张图片,你想识别这张图片识别看它是否是一只猫或者不是一只猫的图片,你想要一个算法能够输出预测,你只能称之为

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

,也就是你对实际值

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

的估计。更正式地来说,你想让

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

等于1的一种可能性或者是机会,前提条件是给定了输入特征

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

。换句话来说,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是我们在上个视频看到的图片,你想让

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

来告诉你这是一只猫的图片的机率有多大。在之前的视频中所说的,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

维的向量(相当于有

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

个特征的特征向量)。我们用

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

来表示逻辑回归的参数,这也是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

维向量(因为

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

实际上是特征权重,维度与特征向量相同),参数里面还有

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,这是一个实数(表示偏差)。所以给出输入

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

以及参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

之后,我们怎样产生输出预测值

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

,一件你可以尝试却不可行的事是让

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_87


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hhVN06u2-1611150677513)(…/images/dfb5731c30b81eced917450d31e860a3.png)]

这时候我们得到的是一个关于输入

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

的线性函数,实际上这是你在做线性回归时所用到的,但是这对于二元分类问题来讲不是一个非常好的算法,因为你想让

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

表示实际值

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

等于1的机率的话,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

应该在0到1之间。这是一个需要解决的问题,因为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_92

可能比1要大得多,或者甚至为一个负值。对于你想要的在0和1之间的概率来说它是没有意义的,因此在逻辑回归中,我们的输出应该是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

等于由上面得到的线性函数式子作为自变量的sigmoid函数中,公式如上图最下面所示,将线性函数转换为非线性函数。

下图是sigmoid函数的图像,如果我把水平轴作为

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

轴,那么关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

sigmoid函数是这样的,它是平滑地从0走向1,让我在这里标记纵轴,这是0,曲线与纵轴相交的截距是0.5,这就是关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

sigmoid函数的图像。我们通常都使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

来表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_92

的值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rjijTgCs-1611150677514)(…/images/7e304debcca5945a3443d56bcbdd2964.png)]

关于sigmoid函数的公式是这样的,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_99

,在这里

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

是一个实数,这里要说明一些要注意的事情,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

非常大那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_102

将会接近于0,关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

sigmoid函数将会近似等于1除以1加上某个非常接近于0的项,因为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_104

的指数如果是个绝对值很大的负数的话,这项将会接近于0,所以如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

很大的话那么关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

sigmoid函数会非常接近1。相反地,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

非常小或者说是一个绝对值很大的负数,那么关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_102

这项会变成一个很大的数,你可以认为这是1除以1加上一个非常非常大的数,所以这个就接近于0。实际上你看到当

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

变成一个绝对值很大的负数,关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

sigmoid函数就会非常接近于0,因此当你实现逻辑回归时,你的工作就是去让机器学习参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

以及

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

这样才使得

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

成为对

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

这一情况的概率的一个很好的估计。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bZv778SA-1611150677514)(…/images/f5049dc7ce815b495fbbdf71f23fc66c.png)]

在继续进行下一步之前,介绍一种符号惯例,可以让参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

和参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

分开。在符号上要注意的一点是当我们对神经网络进行编程时经常会让参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

和参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

分开,在这里参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

对应的是一种偏置。在之前的机器学习课程里,你可能已经见过处理这个问题时的其他符号表示。比如在某些例子里,你定义一个额外的特征称之为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_120

,并且使它等于1,那么现在

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

就是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

加1维的变量,然后你定义

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_123

sigmoid函数。在这个备选的符号惯例里,你有一个参数向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_124

,这样

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_125

就充当了

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,这是一个实数,而剩下的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_127

直到

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_128

充当了

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

,结果就是当你实现你的神经网络时,有一个比较简单的方法是保持

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

分开。但是在这节课里我们不会使用任何这类符号惯例,所以不用去担心。

现在你已经知道逻辑回归模型是什么样子了,下一步要做的是训练参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

和参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,你需要定义一个代价函数,让我们在下节课里对其进行解释。

2.3 逻辑回归的代价函数(Logistic Regression Cost Function)

在上个视频中,我们讲了逻辑回归模型,这个视频里,我们讲逻辑回归的代价函数(也翻译作成本函数)。

为什么需要代价函数:

为了训练逻辑回归模型的参数参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

和参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

我们,需要一个代价函数,通过训练代价函数来得到参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

和参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

。先看一下逻辑回归的输出函数:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cJxhuqFh-1611150677515)(…/images/4c9a27b071ce9162dbbcdad3393061d2.png)]

为了让模型通过学习调整参数,你需要给予一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

样本的训练集,这会让你在训练集上找到参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

和参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,,来得到你的输出。

对训练集的预测值,我们将它写成

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

,我们更希望它会接近于训练集中的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

值,为了对上面的公式更详细的介绍,我们需要说明上面的定义是对一个训练样本来说的,这种形式也使用于每个训练样本,我们使用这些带有圆括号的上标来区分索引和样本,训练样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_17

所对应的预测值是

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_144

,是用训练样本的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_145

然后通过sigmoid函数来得到,也可以把

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

定义为

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_147

,我们将使用这个符号

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_148

注解,上标

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_148

来指明数据表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

或者其他数据的第

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_17

个训练样本,这就是上标

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_148

的含义。

损失函数:

损失函数又叫做误差函数,用来衡量算法的运行情况,Loss function:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_155

.

我们通过这个

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_156

称为的损失函数,来衡量预测输出值和实际值有多接近。一般我们用预测值和实际值的平方差或者它们平方差的一半,但是通常在逻辑回归中我们不这么做,因为当我们在学习逻辑回归参数的时候,会发现我们的优化目标不是凸优化,只能找到多个局部最优值,梯度下降法很可能找不到全局最优值,虽然平方差是一个不错的损失函数,但是我们在逻辑回归模型中会定义另外一个损失函数。

我们在逻辑回归中用到的损失函数是:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_157

为什么要用这个函数作为逻辑损失函数?当我们使用平方误差作为损失函数的时候,你会想要让这个误差尽可能地小,对于这个逻辑回归损失函数,我们也想让它尽可能地小,为了更好地理解这个损失函数怎么起作用,我们举两个例子:


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

时损失函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_159

,如果想要损失函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_156

尽可能得小,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

就要尽可能大,因为sigmoid函数取值

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_162

,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

会无限接近于1。


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164

时损失函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_165

,如果想要损失函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_156

尽可能得小,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

就要尽可能小,因为sigmoid函数取值

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_162

,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

会无限接近于0。

在这门课中有很多的函数效果和现在这个类似,就是如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_170

等于1,我们就尽可能让

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_171

变大,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_170

等于0,我们就尽可能让

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_171

损失函数是在单个训练样本中定义的,它衡量的是算法在单个训练样本中表现如何,为了衡量算法在全部训练样本上的表现如何,我们需要定义一个算法的代价函数,算法的代价函数是对

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个样本的损失函数求和然后除以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_176


损失函数只适用于像这样的单个训练样本,而代价函数是参数的总代价,所以在训练逻辑回归模型时候,我们需要找到合适的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,来让代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的总代价降到最低。

根据我们对逻辑回归算法的推导及对单个样本的损失函数的推导和针对算法所选用参数的总代价函数的推导,结果表明逻辑回归可以看做是一个非常小的神经网络,在下一个视频中,我们会看到神经网络会做什么。

2.4 梯度下降法(Gradient Descent)

梯度下降法可以做什么?

在你测试集上,通过最小化代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

来训练的参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EhYIeIU7-1611150677516)(…/images/cbd5ff8c461fcb5a699c4ec4789687b3.jpg)]

如图,在第二行给出和之前一样的逻辑回归算法的代价函数(成本函数)

梯度下降法的形象化说明

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WTdXA8Ii-1611150677516)(…/images/a3c81d2c8629d674141def47dc02f312.jpg)]

在这个图中,横轴表示你的空间参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,在实践中,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

可以是更高的维度,但是为了更好地绘图,我们定义

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,都是单一实数,代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

是在水平轴

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

上的曲面,因此曲面的高度就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

在某一点的函数值。我们所做的就是找到使得代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

函数值是最小值,对应的参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZEDp2qAu-1611150677517)(…/images/236774be30d12524a2002c3c484d22d5.jpg)]

如图,代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

是一个凸函数(convex function),像一个大碗一样。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5S5Gda4C-1611150677518)(…/images/af11ecd5d72c85f777592f8660678ce6.jpg)]

如图,这就与刚才的图有些相反,因为它是非凸的并且有很多不同的局部最小值。由于逻辑回归的代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

特性,我们必须定义代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

为凸函数。

初始化

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_198

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_199

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-auIFzpIT-1611150677519)(…/images/1b79cca8e1902f0ee24b4eb966755ddd.jpg)]

可以用如图那个小红点来初始化参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,也可以采用随机初始化的方法,对于逻辑回归几乎所有的初始化方法都有效,因为函数是凸函数,无论在哪里初始化,应该达到同一点或大致相同的点。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-1HTt3QrG-1611150677520)(…/images/0ad6c298d0ac25ca9b26546bb06d462c.jpg)]

我们以如图的小红点的坐标来初始化参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82


2. 朝最陡的下坡方向走一步,不断地迭代

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hcyZUy8Z-1611150677520)(…/images/bb909b874b2865e66eaf9a5d18cc00e5.jpg)]

我们朝最陡的下坡方向走一步,如图,走到了如图中第二个小红点处。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jIpvTJkr-1611150677521)(…/images/c5eda5608fd2f4d846559ed8e89ed33c.jpg)]

我们可能停在这里也有可能继续朝最陡的下坡方向再走一步,如图,经过两次迭代走到第三个小红点处。

3.直到走到全局最优解或者接近全局最优解的地方

通过以上的三个步骤我们可以找到全局最优解,也就是代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

这个凸函数的最小值点。

梯度下降法的细节化说明(仅有一个参数)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DdaxoPUd-1611150677522)(…/images/5300d40870ec58cb0b8162747b9559b9.jpg)]

假定代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_205

只有一个参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

,即用一维曲线代替多维曲线,这样可以更好画出图像。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CywnrHQv-1611150677522)(…/images/6cdef1989a113fc1caaaaf6ebaaa3549.jpg)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-srpZvOkC-1611150677523)(…/images/60cc674531ac72b2d75b0c447db95e96.jpg)]

迭代就是不断重复做如图的公式:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_207

表示更新参数,

$a $ 表示学习率(learning rate),用来控制步长(step),即向下走一步的长度

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_208

就是函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_205


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

求导(derivative),在代码中我们会使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_211

表示这个结果

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PRUgCivN-1611150677524)(…/images/27be50001e7a91bd2abaaeaf7aba7cd4.jpg)]

对于导数更加形象化的理解就是斜率(slope),如图该点的导数就是这个点相切于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_205

的小三角形的高除宽。假设我们以如图点为初始化点,该点处的斜率的符号是正的,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_213

,所以接下来会向左走一步。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kw8WJW3h-1611150677525)(…/images/4fb3b91114ecb2cd81ec9f3662434d81.jpg)]

整个梯度下降法的迭代过程就是不断地向左走,直至逼近最小值点。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tErAiSis-1611150677526)(…/images/579fb3957063480420c6a7d294503e97.jpg)]

假设我们以如图点为初始化点,该点处的斜率的符号是负的,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_214

,所以接下来会向右走一步。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8mySSfvm-1611150677526)(…/images/21541fc771ad8895c18d292dd4734fe7.jpg)]

整个梯度下降法的迭代过程就是不断地向右走,即朝着最小值点方向走。

梯度下降法的细节化说明(两个参数)

逻辑回归的代价函数(成本函数)

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

是含有两个参数的。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7ZqdSDdr-1611150677527)(…/images/593eb7e2835b4f3c3aa8185cfa76155c.png)]

$\partial $ 表示求偏导符号,可以读作round

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_216

就是函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

求偏导,在代码中我们会使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_211

表示这个结果,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_220

就是函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

求偏导,在代码中我们会使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_223

表示这个结果,

小写字母

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_224

用在求导数(derivative),即函数只有一个参数,

偏导数符号$\partial $ 用在求偏导(partial derivative),即函数含有两个以上的参数。

2.5 导数(Derivatives)

这个视频我主要是想帮你获得对微积分和导数直观的理解。或许你认为自从大学毕以后你再也没有接触微积分。这取决于你什么时候毕业,也许有一段时间了,如果你顾虑这点,请不要担心。为了高效应用神经网络和深度学习,你并不需要非常深入理解微积分。因此如果你观看这个视频或者以后的视频时心想:“哇哦,这些知识、这些运算对我来说很复杂。”我给你的建议是:坚持学习视频,最好下课后做作业,成功的完成编程作业,然后你就可以使用深度学习了。在第四周之后的学习中,你会看到定义的很多种类的函数,通过微积分他们能够帮助你把所有的知识结合起来,其中有的叫做前向函数和反向函数,因此你不需要了解所有你使用的那些微积分中的函数。所以你不用担心他们,除此之外在对深度学习的尝试中,这周我们要进一步深入了解微积分的细节。所有你只需要直观地认识微积分,用来构建和成功的应用这些算法。最后,如果你是精通微积分的那一小部分人群,你对微积分非常熟悉,你可以跳过这部分视频。其他同学让我们开始深入学习导数。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-m2DhBtaS-1611150677528)(…/images/efe674e73c693a0c5439b68652ed2ce1.png)]

一个函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_225

,它是一条直线。下面我们来简单理解下导数。让我们看看函数中几个点,假定

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的3倍等于6,也就是说如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

,那么函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_230

。假定稍微改变一点点

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的值,只增加一点,变为2.001,这时

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

将向右做微小的移动。0.001的差别实在是太小了,不能在图中显示出来,我们把它右移一点,现在

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的3倍是6.003,画在图里,比例不太符合。请看绿色高亮部分的这个小三角形,如果向右移动0.001,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

增加0.003,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

的值增加3倍于右移的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,因此我们说函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

,.是这个导数的斜率,或者说,当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

时,斜率是3。导数这个概念意味着斜率,导数听起来是一个很可怕、很令人惊恐的词,但是斜率以一种很友好的方式来描述导数这个概念。所以提到导数,我们把它当作函数的斜率就好了。更正式的斜率定义为在上图这个绿色的小三角形中,高除以宽。即斜率等于0.003除以0.001,等于3。或者说导数等于3,这表示当你将

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

右移0.001,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

的值增加3倍水平方向的量。

现在让我们从不同的角度理解这个函数。

假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_243

,此时

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_244



第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

右移一个很小的幅度,增加到5.001,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_246


即在

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_243

时,斜率是3,这就是表示,当微小改变变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的值,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_249

。一个等价的导数表达式可以这样写

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_250

,不管你是否将

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

放在上面或者放在右边都没有关系。

在这个视频中,我讲解导数讨论的情况是我们将

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

偏移0.001,如果你想知道导数的数学定义,导数是你右移很小的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

值(不是0.001,而是一个非常非常小的值)。通常导数的定义是你右移

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

(可度量的值)一个无限小的值,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

增加3倍(增加了一个非常非常小的值)。也就是这个三角形右边的高度。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YDqemNlD-1611150677528)(…/images/beee332de6c608239d35a7a4f466594c.png)]

那就是导数的正式定义。但是为了直观的认识,我们将探讨右移

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_256

这个值,即使0.001并不是无穷小的可测数据。导数的一个特性是:这个函数任何地方的斜率总是等于3,不管

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_243

,这个函数的斜率总等于3,也就是说不管

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的值如何变化,如果你增加0.001,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

的值就增加3倍。这个函数在所有地方的斜率都相等。一种证明方式是无论你将小三角形画在哪里,它的高除以宽总是3。

我希望带给你一种感觉:什么是斜率?什么是导函数?对于一条直线,在例子中函数的斜率,在任何地方都是3。在下一个视频让我们看一个更复杂的例子,这个例子中函数在不同点的斜率是可变的。

2.6 更多的导数例子(More Derivative Examples)

在这个视频中我将给出一个更加复杂的例子,在这个例子中,函数在不同点处的斜率是不一样的,先来举个例子:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-04QS3Xkd-1611150677529)(…/images/c34ba67cca6cb94c79a2e63cc5749c1f.png)]

我在这里画一个函数,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_261

,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_262

的话,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_263

。让我们稍稍往右推进一点点,现在

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_264

,则

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_265

(如果你用计算器算的话,这个准确的值应该为4.004。0.001 我只是为了简便起见,省略了后面的部分),如果你在这儿画,一个小三角形,你就会发现,如果把

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

往右移动0.001,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

将增大四倍,即增大0.004。在微积分中我们把这个三角形斜边的斜率,称为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

在点

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_262

处的导数(即为4),或者写成微积分的形式,当

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_262

的时候,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_271

由此可知,函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_272

,在

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

取不同值的时候,它的斜率是不同的,这和上个视频中的例子是不同的。

这里有种直观的方法可以解释,为什么一个点的斜率,在不同位置会不同如果你在曲线上,的不同位置画一些小小的三角形你就会发现,三角形高和宽的比值,在曲线上不同的地方,它们是不同的。所以当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

时,斜率为4;而当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_243

时,斜率为10 。如果你翻看微积分的课本,课本会告诉你,函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_272

的斜率(即导数)为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_277

。这意味着任意给定一点

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,如果你稍微将

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,增大0.001,那么你会看到

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

将增大

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_277

,即增大的值为点在

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

处斜率或导数,乘以你向右移动的距离。

现在有个小细节需要注意,导数增大的值,不是刚好等于导数公式算出来的值,而只是根据导数算出来的一个估计值。

为了总结这堂课所学的知识,我们再来看看几个例子:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-O1TVvvsQ-1611150677531)(…/images/5b78b725478a0b4def09539f54c784be.png)]

假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_283

如果你翻看导数公式表,你会发现这个函数的导数,等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_284

。所以这是什么意思呢,同样地举一个例子:我们再次令

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_286

,如果我们又将

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

增大一点点,你会发现

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_288

, 你可以自己检查一遍,如果我们取8.012,你会发现

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_289

,和8.012很接近,事实上当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

时,导数值为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_291

,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_292

。所以导数公式,表明如果你将

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

向右移动0.001时,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

来看最后一个例子,假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_295

,有些可能会写作

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_296

,函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_297

的斜率应该为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_298

,所以我们可以解释如下:如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

取任何值,比如又取

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

,然后又把

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

向右边移动0.001 那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

将增大

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_303

,如果你借助计算器的话,你会发现当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_305

;而

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_306

时,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_307

。所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

增大了0.0005,如果你查看导数公式,当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

的时候,导数值

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_310

。这表明如果你把 增大0.001,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_227

将只会增大0.001的二分之一,即0.0005。如果你画个小三角形你就会发现,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

轴增加了0.001,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

轴上的函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_297

,将增大0.001的一半 即0.0005。所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_298

,当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

时这里是 ,就是当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_226

时这条线的斜率。这些就是有关,导数的一些知识。

在这个视频中,你只需要记住两点:

第一点,导数就是斜率,而函数的斜率,在不同的点是不同的。在第一个例子中

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_318

,这是一条直线,在任何点它的斜率都是相同的,均为3。但是对于函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_261

,或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_320

,它们的斜率是变化的,所以它们的导数或者斜率,在曲线上不同的点处是不同的。

第二点,如果你想知道一个函数的导数,你可参考你的微积分课本或者维基百科,然后你应该就能找到这些函数的导数公式。

最后我希望,你能通过我生动的讲解,掌握这些有关导数和斜率的知识,下一课我们将讲解计算图,以及如何用它来求更加复杂的函数的导数。

2.7 计算图(Computation Graph)

可以说,一个神经网络的计算,都是按照前向或反向传播过程组织的。首先我们计算出一个新的网络的输出(前向过程),紧接着进行一个反向传输操作。后者我们用来计算出对应的梯度或导数。计算图解释了为什么我们用这种方式组织这些计算过程。在这个视频中,我们将举一个例子说明计算图是什么。让我们举一个比逻辑回归更加简单的,或者说不那么正式的神经网络的例子。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-0h2CfGzV-1611150677532)(…/images/5216254e20325aad2dd51975bbc70068.png)]

我们尝试计算函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

是由三个变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_323

组成的函数,这个函数是

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_324

。计算这个函数实际上有三个不同的步骤,首先是计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_326

,我们把它储存在变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

中,因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_328


然后计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_329

;最后输出

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_330

,这就是要计算的函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

。我们可以把这三步画成如下的计算图,我先在这画三个变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_323

,第一步就是计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_333

,我在这周围放个矩形框,它的输入是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_334

,接着第二步

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_329

,最后一步

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_330


举个例子:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_337


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_333

就是6,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_329

,就是5+6=11。

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

是3倍的 ,因此。即

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_341

。如果你把它算出来,实际上得到33就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的值。

当有不同的或者一些特殊的输出变量时,例如本例中的

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

和逻辑回归中你想优化的代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

,因此计算图用来处理这些计算会很方便。从这个小例子中我们可以看出,通过一个从左向右的过程,你可以计算出

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的值。为了计算导数,从右到左(红色箭头,和蓝色箭头的过程相反)的过程是用于计算导数最自然的方式。

概括一下:计算图组织计算的形式是用蓝色箭头从左到右的计算,让我们看看下一个视频中如何进行反向红色箭头(也就是从右到左)的导数计算,让我们继续下一个视频的学习。

2.8 使用计算图求导数(Derivatives with a Computation Graph)

在上一个视频中,我们看了一个例子使用流程计算图来计算函数J。现在我们清理一下流程图的描述,看看你如何利用它计算出函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的导数。

下面用到的公式:

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_347


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_348


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_349

这是一个流程图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-f9Zg7vzC-1611150677533)(…/images/b1c9294420787ec6d7724d64ed9b4a43.png)]

假设你要计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_350

,那要怎么算呢?好,比如说,我们要把这个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

值拿过来,改变一下,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的值会怎么变呢?

所以定义上

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_353

,现在

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_354

,所以如果你让

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

增加一点点,比如到11.001,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_356

,所以我这里

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

增加了0.001,然后最终结果是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

上升到原来的3倍,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_359

,因为对于任何

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的增量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

都会有3倍增量,而且这类似于我们在上一个视频中的例子,我们有

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_225

,然后我们推导出

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_363

,所以这里我们有

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_330

,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_365

,这里

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

扮演了

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_367

的角色,在之前的视频里的例子。

在反向传播算法中的术语,我们看到,如果你想计算最后输出变量的导数,使用你最关心的变量对

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的导数,那么我们就做完了一步反向传播,在这个流程图中是一个反向步骤。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bnnQZman-1611150677533)(…/images/44c62688d05844b26599653545d24dd4.png)]

我们来看另一个例子,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_369

是多少呢?换句话说,如果我们提高

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的数值,对

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的数值有什么影响?

好,我们看看这个例子。变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_243

,我们让它增加到5.001,那么对v的影响就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_373

,之前

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_354

,现在变成11.001,我们从上面看到现在

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

就变成33.003了,所以我们看到的是,如果你让

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

增加0.001,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

增加0.003。那么增加

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,我是说如果你把这个5换成某个新值,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的改变量就会传播到流程图的最右,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

最后是33.003。所以J的增量是3乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的增量,意味着这个导数是3。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-NuwOP3Qk-1611150677534)(…/images/d4f37c1db52a999dd68b89564449669f.png)]

要解释这个计算过程,其中一种方式是:如果你改变了

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,那么也会改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

,通过改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

,也会改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

值的净变化量,当你提升这个值(0.001),当你把

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

值提高一点点,这就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的变化量(0.003)。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oaV0wg0Q-1611150677535)(…/images/7e9ea7f52cab1a428aa1fb670fbe54e9.png)]

首先a增加了,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

也会增加,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

增加多少呢?这取决于

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_391

,然后

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的变化导致

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

也在增加,所以这在微积分里实际上叫链式法则,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

影响到

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

影响到

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

,那么当你让

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

变大时,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的变化量就是当你改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

时,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的变化量乘以改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的变化量,在微积分里这叫链式法则。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uuR1dtE8-1611150677535)(…/images/eccab9443ace5d97b50ec283a8f85ba8.png)]

我们从这个计算中看到,如果你让

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

增加0.001,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

也会变化相同的大小,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_406

。事实上,如果你代入进去,我们之前算过

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_365


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_408

,所以这个乘积3×1,实际上就给出了正确答案,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_409


这张小图表示了如何计算,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_350

就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

对变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的导数,它可以帮助你计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_369

,所以这是另一步反向传播计算。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-a5u0wyq6-1611150677536)(…/images/960127d6727a198511fe59459bf4a724.png)]

现在我想介绍一个新的符号约定,当你编程实现反向传播时,通常会有一个最终输出值是你要关心的,最终的输出变量,你真正想要关心或者说优化的。在这种情况下最终的输出变量是J,就是流程图里最后一个符号,所以有很多计算尝试计算输出变量的导数,所以输出变量对某个变量的导数,我们就用

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_414

命名,所以在很多计算中你需要计算最终输出结果的导数,在这个例子里是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

,还有各种中间变量,比如

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_416

,当你在软件里实现的时候,变量名叫什么?你可以做的一件事是,在python中,你可以写一个很长的变量名,比如

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_417

,但这个变量名有点长,我们就用

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_418

,但因为你一直对

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_419

求导,对这个最终输出变量求导。我这里要介绍一个新符号,在程序里,当你编程的时候,在代码里,我们就使用变量名

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_414

,来表示那个量。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dFEIC46v-1611150677537)(…/images/88f92a16ca8cd36f8252c5c6db9c980b.png)]

好,所以在程序里是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_414

表示导数,你关心的最终变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

的导数,有时最后是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_156

,对代码中各种中间量的导数,所以代码里这个东西,你用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_424

表示这个值,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_425

,你的代码表示就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_426


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rGochHok-1611150677538)(…/images/22e98c374e2aaa999f46d27339ce6720.png)]

好,所以我们通过这个流程图完成部分的后向传播算法。我们在下一张幻灯片看看这个例子剩下的部分。

我们清理出一张新的流程图,我们回顾一下,到目前为止,我们一直在往回传播,并计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_425

,再次,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_424

是代码里的变量名,其真正的定义是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_350

。我发现

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_426

,再次,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_431

是代码里的变量名,其实代表

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_369

的值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Jpu7jpmh-1611150677539)(…/images/74a169313e532a2c953ea01b05d57385.png)]

大概手算了一下,两条直线怎么计算反向传播。

好,我们继续计算导数,我们看看这个值

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_434

是多少呢?通过和之前类似的计算,现在我们从

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_435

出发,如果你令

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

增加到6.001,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

之前是11,现在变成11.001了,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

就从33变成33.003,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

增量是3倍,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_440

。对

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

的分析很类似对a的分析,实际上这计算起来就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_442

,有了这个,我们可以算出

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_443


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_444

,最终算出结果是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_445


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XXSJXg6h-1611150677540)(…/images/596ea4f3492f8e96ecd560e3899e2700.png)]

所以我们还有一步反向传播,我们最终计算出

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_446

,这里的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_447

当然了,就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_448


现在,我们仔细看看最后一个例子,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_449

呢?想象一下,如果你改变了

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

的值,你想要然后变化一点,让

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

值到达最大或最小,那么导数是什么呢?这个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

函数的斜率,当你稍微改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

值之后。事实上,使用微积分链式法则,这可以写成两者的乘积,就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_454

,理由是,如果你改变

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

一点点,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

变化比如说3.001,它影响J的方式是,首先会影响

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

,它对

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

的影响有多大?好,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

的定义是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_460

,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_461

时这是6,现在就变成6.002了,对吧,因为在我们的例子中

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_462

,所以这告诉我们

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_463

当你让

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

增加0.001时,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

就增加两倍。所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_466

,现在我想

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

的增加量已经是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

的两倍,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_448

是多少呢?我们已经弄清楚了,这等于3,所以让这两部分相乘,我们发现

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_470


好,这就是第二部分的推导,其中我们想知道

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

增加0.002,会对

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

有什么影响。实际上

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_473

,这告诉我们u增加0.002之后,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

上升了3倍,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_179

应该上升0.006,对吧。这可以从

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_440

推导出来。

如果你仔细看看这些数学内容,你会发现,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

变成3.001,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

就变成6.002,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

变成11.002,然后

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_480

,对吧?这就是如何得到

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_470


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2UJifSIn-1611150677542)(…/images/c56e483eaebb9425af973bb9849ad2e4.png)]

为了填进去,如果我们反向走的话,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_482

,而

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_223

其实是Python代码中的变量名,表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_449


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kIDdOoIr-1611150677543)(…/images/c933c8d935a95e66bbf6a61adecbb816.png)]

我不会很详细地介绍最后一个例子,但事实上,如果你计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_485

,这个结果是9。

我不会详细说明这个例子,在最后一步,我们可以推出

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_486


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WceFpULM-1611150677544)(…/images/cd75ffa2793fa4af02bdd869fe962bc1.png)]

所以这个视频的要点是,对于那个例子,当计算所有这些导数时,最有效率的办法是从右到左计算,跟着这个红色箭头走。特别是当我们第一次计算对

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的导数时,之后在计算对

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

导数就可以用到。然后对

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

的导数,比如说这个项和这里这个项:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7xjpDvOE-1611150677545)(…/images/90fd887adacd062cc60be1f553797fab.png)]

可以帮助计算对

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

的导数,然后对

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_326

的导数。

所以这是一个计算流程图,就是正向或者说从左到右的计算来计算成本函数J,你可能需要优化的函数,然后反向从右到左计算导数。如果你不熟悉微积分或链式法则,我知道这里有些细节讲的很快,但如果你没有跟上所有细节,也不用怕。在下一个视频中,我会再过一遍。在逻辑回归的背景下过一遍,并给你介绍需要做什么才能编写代码,实现逻辑回归模型中的导数计算。

2.9 逻辑回归中的梯度下降(Logistic Regression Gradient Descent)

本节我们讨论怎样通过计算偏导数来实现逻辑回归的梯度下降算法。它的关键点是几个重要公式,其作用是用来实现逻辑回归中梯度下降算法。但是在本节视频中,我将使用计算图对梯度下降算法进行计算。我必须要承认的是,使用计算图来计算逻辑回归的梯度下降算法有点大材小用了。但是,我认为以这个例子作为开始来讲解,可以使你更好的理解背后的思想。从而在讨论神经网络时,你可以更深刻而全面地理解神经网络。接下来让我们开始学习逻辑回归的梯度下降算法。

假设样本只有两个特征

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_492


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_493

,为了计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

,我们需要输入参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_495


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_496


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

,除此之外还有特征值

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_492


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_493

。因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

的计算公式为:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_501


回想一下逻辑回归的公式定义如下:

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_502


其中

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_503


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_99


损失函数:

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_505


代价函数:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_506


假设现在只考虑单个样本的情况,单个样本的代价函数定义如下:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_507


其中

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

是逻辑回归的输出,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

是样本的标签值。现在让我们画出表示这个计算的计算图。

这里先复习下梯度下降法,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

的修正量可以表达如下:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_512


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_513

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PXDdrGj2-1611150677546)(…/images/03f5f96177ab15d5ead8298ba50300ac.jpg)]

如图:在这个公式的外侧画上长方形。然后计算:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_514


也就是计算图的下一步。最后计算损失函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_515


有了计算图,我就不需要再写出公式了。因此,为了使得逻辑回归中最小化代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_515

,我们需要做的仅仅是修改参数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

的值。前面我们已经讲解了如何在单个训练样本上计算代价函数的前向步骤。现在让我们来讨论通过反向计算出导数。

因为我们想要计算出的代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_515

的导数,首先我们需要反向计算出代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_515

关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的导数,在编写代码时,你只需要用

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_431

来表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_523


通过微积分得到:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_524


如果你不熟悉微积分,也不必太担心,我们会列出本课程涉及的所有求导公式。那么如果你非常熟悉微积分,我们鼓励你主动推导前面介绍的代价函数的求导公式,使用微积分直接求出

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_515

关于变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的导数。如果你不太了解微积分,也不用太担心。现在我们已经计算出

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_431

,也就是最终输出结果的导数。

现在可以再反向一步,在编写Python代码时,你只需要用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_528

来表示代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_156

关于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

的导数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_531

,也可以写成

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_532

,这两种写法都是正确的。

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_533


因为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_534


并且

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_535



第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_536

,因此将这两项相乘,得到:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_537

视频中为了简化推导过程,假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_538

这个推导的过程就是我之前提到过的链式法则。如果你对微积分熟悉,放心地去推导整个求导过程,如果不熟悉微积分,你只需要知道

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_539

已经计算好了。

现在进行最后一步反向推导,也就是计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

变化对代价函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_156

的影响,特别地,可以用:

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_543


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_544


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_545


视频中,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_546

表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_547


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_548

表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_549


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_550


因此,关于单个样本的梯度下降算法,你所需要做的就是如下的事情:

使用公式

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_539

计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_528


使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_553

计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_546


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_555

计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_556


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_550

来计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_223


然后:

更新

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_559


更新

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_560


更新

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_561


这就是关于单个样本实例的梯度下降算法中参数更新一次的步骤。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EDMSFQKO-1611150677547)(…/images/6403f00e5844c3100f4aa9ff043e2319.jpg)]

现在你已经知道了怎样计算导数,并且实现针对单个训练样本的逻辑回归的梯度下降算法。但是,训练逻辑回归模型不仅仅只有一个训练样本,而是有

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本的整个训练集。因此在下一节视频中,我们将这些思想应用到整个训练样本集中,而不仅仅只是单个样本上。

2.10 m 个样本的梯度下降(Gradient Descent on m Examples)

在之前的视频中,你已经看到如何计算导数,以及应用梯度下降在逻辑回归的一个训练样本上。现在我们想要把它应用在

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本上。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Hf7Bx2L9-1611150677548)(…/images/bf930b1f68d8e0726dda5393afc83672.png)]

首先,让我们时刻记住有关于损失函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

的定义。

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_565

当你的算法输出关于样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_567


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_567

是训练样本的预测值,即:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_569


所以我们在前面的幻灯中展示的是对于任意单个训练样本,如何计算微分当你只有一个训练样本。因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_546


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_548


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_223

添上上标

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_17

表示你求得的相应的值。如果你面对的是我们在之前的幻灯中演示的那种情况,但只使用了一个训练样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_574


现在你知道带有求和的全局代价函数,实际上是1到

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

项各个损失的平均。 所以它表明全局代价函数对

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_495

的微分,对

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_495

的微分也同样是各项损失对

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_495

微分的平均。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-oU55Cck6-1611150677548)(…/images/8b725e51dcffc53a5def49438b70d925.png)]

但之前我们已经演示了如何计算这项,即之前幻灯中演示的如何对单个训练样本进行计算。所以你真正需要做的是计算这些微分,如我们在之前的训练样本上做的。并且求平均,这会给你全局梯度值,你能够把它直接应用到梯度下降算法中。

所以这里有很多细节,但让我们把这些装进一个具体的算法。同时你需要一起应用的就是逻辑回归和梯度下降。

我们初始化

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_579

代码流程:

J=0;dw1=0;dw2=0;db=0;
for i = 1 to m
z(i) = wx(i)+b;
a(i) = sigmoid(z(i));
J += -[y(i)log(a(i))+(1-y(i))log(1-a(i));
dz(i) = a(i)-y(i);
dw1 += x1(i)dz(i);
dw2 += x2(i)dz(i);
db += dz(i);
J/= m;
dw1/= m;
dw2/= m;
db/= m;
w=w-alpha*dw
b=b-alpha*db

幻灯片上只应用了一步梯度下降。因此你需要重复以上内容很多次,以应用多次梯度下降。看起来这些细节似乎很复杂,但目前不要担心太多。希望你明白,当你继续尝试并应用这些在编程作业里,所有这些会变的更加清楚。

但这种计算中有两个缺点,也就是说应用此方法在逻辑回归上你需要编写两个for循环。第一个for循环是一个小循环遍历

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本,第二个for循环是一个遍历所有特征的for循环。这个例子中我们只有2个特征,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_08

等于2并且

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_538

等于2。 但如果你有更多特征,你开始编写你的因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_546


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_556

,你有相似的计算从

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_585

一直下去到

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_586

。所以看来你需要一个for循环遍历所有

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_08

个特征。

当你应用深度学习算法,你会发现在代码中显式地使用for循环使你的算法很低效,同时在深度学习领域会有越来越大的数据集。所以能够应用你的算法且没有显式的for循环会是重要的,并且会帮助你适用于更大的数据集。所以这里有一些叫做向量化技术,它可以允许你的代码摆脱这些显式的for循环。

我想在先于深度学习的时代,也就是深度学习兴起之前,向量化是很棒的。可以使你有时候加速你的运算,但有时候也未必能够。但是在深度学习时代向量化,摆脱for循环已经变得相当重要。因为我们越来越多地训练非常大的数据集,因此你真的需要你的代码变得非常高效。所以在接下来的几个视频中,我们会谈到向量化,以及如何应用向量化而连一个for循环都不使用。所以学习了这些,我希望你有关于如何应用逻辑回归,或是用于逻辑回归的梯度下降,事情会变得更加清晰。当你进行编程练习,但在真正做编程练习之前让我们先谈谈向量化。然后你可以应用全部这些东西,应用一个梯度下降的迭代而不使用任何for循环。

2.11 向量化(Vectorization)

参考视频: 2.11 向量化

向量化是非常基础的去除代码中for循环的艺术,在深度学习安全领域、深度学习实践中,你会经常发现自己训练大数据集,因为深度学习算法处理大数据集效果很棒,所以你的代码运行速度非常重要,否则如果在大数据集上,你的代码可能花费很长时间去运行,你将要等待非常长的时间去得到结果。所以在深度学习领域,运行向量化是一个关键的技巧,让我们举个栗子说明什么是向量化。

在逻辑回归中你需要去计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_503


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

都是列向量。如果你有很多的特征那么就会有一个非常大的向量,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_591

,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_592

,所以如果你想使用非向量化方法去计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_593

,你需要用如下方式(python

z=0
for i in range(n_x):
z += w[i]*x[i]
z += b

这是一个非向量化的实现,你会发现这真的很慢,作为一个对比,向量化实现将会非常直接计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_593

,代码如下:

​z=np.dot(w,x)+b​

这是向量化计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_593

的方法,你将会发现这个非常快

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dzJ7hJDn-1611150677549)(…/images/e9c7f9f3694453c07fe6b9fe7cf0c4c8.png)]

让我们用一个小例子说明一下,在我的我将会写一些代码(以下为教授在他的Jupyter notebook上写的Python代码,)

import numpy as np #导入numpy库
a = np.array([1,2,3,4]) #创建一个数据a
print(a)
# [1 2 3 4]

import time #导入时间库
a = np.random.rand(1000000)
b = np.random.rand(1000000) #通过round随机得到两个一百万维度的数组
tic = time.time() #现在测量一下当前时间

#向量化的版本
c = np.dot(a,b)
toc = time.time()
print("Vectorized version:" + str(1000*(toc-tic)) +"ms") #打印一下向量化的版本的时间

#继续增加非向量化的版本
c = 0
tic = time.time()
for i in range(1000000):
c += a[i]*b[i]
toc = time.time()
print(c)
print("For loop:" + str(1000*(toc-tic)) + "ms")#打印for循环的版本的时间

返回值见图。

在两个方法中,向量化和非向量化计算了相同的值,如你所见,向量化版本花费了1.5毫秒,非向量化版本的for循环花费了大约几乎500毫秒,非向量化版本多花费了300倍时间。所以在这个例子中,仅仅是向量化你的代码,就会运行300倍快。这意味着如果向量化方法需要花费一分钟去运行的数据,for循环将会花费5个小时去运行。

一句话总结,以上都是再说和for循环相比,向量化可以快速得到结果。

你可能听过很多类似如下的话,“大规模的深度学习使用了GPU或者图像处理单元实现”,但是我做的所有的案例都是在jupyter notebook上面实现,这里只有CPUCPUGPU都有并行化的指令,他们有时候会叫做SIMD指令,这个代表了一个单独指令多维数据,这个的基础意义是,如果你使用了built-in函数,像​​np.function​​或者并不要求你实现循环的函数,它可以让python的充分利用并行化计算,这是事实在GPUCPU上面计算,GPU更加擅长SIMD计算,但是CPU事实上也不是太差,可能没有GPU那么擅长吧。接下来的视频中,你将看到向量化怎么能够加速你的代码,经验法则是,无论什么时候,避免使用明确的for循环。

以下代码及运行结果截图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rg7xPzGP-1611150677549)(…/images/6ed990de06443ed997090b38671ada1a.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-MbaBEkYG-1611150677550)(…/images/6af2ed5d358b4f4dd50b67c3887867ef.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-wZZwJFmW-1611150677550)(…/images/77280fc4a2f1d609b58f23cde47b709c.png)]

2.12 向量化的更多例子(More Examples of Vectorization)

从上节视频中,你知道了怎样通过numpy内置函数和避开显式的循环(loop)的方式进行向量化,从而有效提高代码速度。

经验提醒我,当我们在写神经网络程序时,或者在写逻辑(logistic)回归,或者其他神经网络模型时,应该避免写循环(loop)语句。虽然有时写循环(loop)是不可避免的,但是我们可以使用比如numpy的内置函数或者其他办法去计算。当你这样使用后,程序效率总是快于循环(loop)

让我们看另外一个例子。如果你想计算向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_596

,这时矩阵乘法定义为,矩阵乘法的定义就是:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_597

,这取决于你怎么定义

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_598

值。同样使用非向量化实现,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_599

, 并且通过两层循环

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_600

,得到

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_601

。现在就有了

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_17


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_603

的两层循环,这就是非向量化。向量化方式就可以用

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_604

,右边这种向量化实现方式,消除了两层循环使得代码运行速度更快。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-uDwnFVun-1611150677551)(…/images/a22eb5a73d2d45b342810eee70a4620c.png)]

下面通过另一个例子继续了解向量化。如果你已经有一个向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

,并且想要对向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

的每个元素做指数操作,得到向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_104


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_609


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_104


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_611

,一直到

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_104


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_613

次方。这里是非向量化的实现方式,首先你初始化了向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_599

,并且通过循环依次计算每个元素。但事实证明可以通过pythonnumpy内置函数,帮助你计算这样的单个函数。所以我会引入​​import numpy as np​​​,执行

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_615

命令。注意到,在之前有循环的代码中,这里仅用了一行代码,向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

作为输入,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_327

作为输出。你已经知道为什么需要循环,并且通过右边代码实现,效率会明显的快于循环方式。

事实上,numpy库有很多向量函数。比如 ​​u=np.log​​​是计算对数函数(

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_618

)、 ​​np.abs()​​​ 计算数据的绝对值、​​np.maximum(v, 0)​​​ 按元素计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

中每个元素和和0相比的最大值,​​v**2​​​ 代表获得元素

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

每个值的平方、 ​​1/v​​​ 获取

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_351

中每个元素的倒数等等。所以当你想写循环时候,检查numpy是否存在类似的内置函数,从而避免使用循环(loop)方式。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2riFia9w-1611150677551)(…/images/6a7d76b4a66ef5af71d55b8f980a5ab2.png)]

那么,将刚才所学到的内容,运用在逻辑回归的梯度下降上,看看我们是否能简化两个计算过程中的某一步。这是我们逻辑回归的求导代码,有两层循环。在这例子我们有

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_08

个特征值。如果你有超过两个特征时,需要循环

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_623


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_624


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_625

等等。所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_603

的实际值是1、2 和

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

,就是你想要更新的值。所以我们想要消除第二循环,在这一行,这样我们就不用初始化

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_623


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_624

都等于0。去掉这些,而是定义

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_211

为一个向量,设置

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_631

。定义了一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

行的一维向量,从而替代循环。我们仅仅使用了一个向量操作

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_633

。最后,我们得到

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_634

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-O7m21p5p-1611150677552)(…/images/e28b7cda6504e2a8ff0f0b2f1e258a96.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-yYt1mviS-1611150677553)(…/images/af298e37ade1883eaeb44c822e279d42.png)]

希望这个视频给了你一点向量化感觉,减少一层循环使你代码更快,但事实证明我们能做得更好。所以在下个视频,我们将进一步的讲解逻辑回归,你将会看到更好的监督学习结果。在训练中不需要使用任何 for 循环,你也可以写出代码去运行整个训练集。到此为止一切都好,让我们看下一个视频。

2.13 向量化逻辑回归(Vectorizing Logistic Regression)

我们已经讨论过向量化是如何显著加速你的代码,在本次视频中我们将讨论如何实现逻辑回归的向量化计算。这样就能处理整个数据集,甚至不会用一个明确的for循环就能实现对于整个数据集梯度下降算法的优化。我对这项技术感到非常激动,并且当我们后面谈到神经网络时同样也不会用到一个明确的 for 循环。

让我们开始吧,首先我们回顾一下逻辑回归的前向传播步骤。所以,如果你有

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本,然后对第一个样本进行预测,你需要这样计算。计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

,我正在使用这个熟悉的公式

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_637

。然后计算激活函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_638

,计算第一个样本的预测值

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

然后对第二个样本进行预测,你需要计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_640


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_641

。然后对第三个样本进行预测,你需要计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_642


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_643

,依次类推。如果你有

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本,你可能需要这样做

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

次,可以看出,为了完成前向传播步骤,即对我们的

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个样本都计算出预测值。有一个办法可以并且不需要任何一个明确的for循环。让我们来看一下你该怎样做。

首先,回忆一下我们曾经定义了一个矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

作为你的训练输入,(如下图中蓝色

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

)像这样在不同的列中堆积在一起。这是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12


第二周:神经网络的编程基础(Basics of Neural Network programming)_python

列的矩阵。我现在将它写为Python numpy的形式

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_651

,这只是表示

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_12

乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

的矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_655


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2A7NuA9v-1611150677553)(…/images/3a8a0c9ed33cd6c033103e35c26eeeb7.png)]

现在我首先想做的是告诉你该如何在一个步骤中计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_656


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_657


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_658

等等。实际上,只用了一行代码。所以,我打算先构建一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的矩阵,实际上它是一个行向量,同时我准备计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_660


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_661

……一直到

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_662

,所有值都是在同一时间内完成。结果发现它可以表达为

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

的转置乘以大写矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

然后加上向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_665


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_666


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_665

是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的向量或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的矩阵或者是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

维的行向量。所以希望你熟悉矩阵乘法,你会发现的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

转置乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_34


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_35

一直到

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_38

。所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

转置可以是一个行向量。所以第一项

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_676

将计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

的转置乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_34


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_79

转置乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_35

等等。然后我们加上第二项

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_665

,你最终将

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

加到了每个元素上。所以你最终得到了另一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的向量,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_684

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_685

这是第一个元素,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_686

这是第二个元素,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_687

这是第

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

如果你参照上面的定义,第一个元素恰好是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_660

的定义,第二个元素恰好是

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_661

的定义,等等。所以,因为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是一次获得的,当你得到你的训练样本,一个一个横向堆积起来,这里我将

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_692

定义为大写的

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

,你用小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

表示并将它们横向排在一起。所以当你将不同训练样本对应的小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

横向堆积在一起时得到大写变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

并且将小写变量也用相同方法处理,将它们横向堆积起来,你就得到大写变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

。结果发现,为了计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_698

numpy命令是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_699

。这里在Python中有一个巧妙的地方,这里

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

是一个实数,或者你可以说是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_701

矩阵,只是一个普通的实数。但是当你将这个向量加上这个实数时,Python自动把这个实数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_82

扩展成一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的行向量。所以这种情况下的操作似乎有点不可思议,它在Python中被称作广播(brosdcasting),目前你不用对此感到顾虑,我们将在下一个视频中进行进一步的讲解。话说回来它只用一行代码,用这一行代码,你可以计算大写的

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

,而大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

是一个包含所有小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_660

到 $ z^{(m)}$ 的

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的矩阵。这就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

的内容,关于变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

我们接下来要做的就是找到一个同时计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_710

的方法。就像把小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

堆积起来得到大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

和横向堆积小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

得到大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

一样,堆积小写变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

将形成一个新的变量,我们将它定义为大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_716

。在编程作业中,你将看到怎样用一个向量在sigmoid函数中进行计算。所以sigmoid函数中输入大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_693

作为变量并且非常高效地输出大写

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_716

。你将在编程作业中看到它的细节。

总结一下,在这张幻灯片中我们已经看到,不需要for循环,利用

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本一次性计算出小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_94

和小写

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,用一行代码即可完成。

​Z = np.dot(w.T,X) + b​

这一行代码:

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_722

,通过恰当地运用

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_723

一次性计算所有

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

。这就是在同一时间内你如何完成一个所有

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

概括一下,你刚刚看到如何利用向量化在同一时间内高效地计算所有的激活函数的所有

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

值。接下来,可以证明,你也可以利用向量化高效地计算反向传播并以此来计算梯度。让我们在下一个视频中看该如何实现。

2.14 向量化 logistic 回归的梯度输出(Vectorizing Logistic Regression’s Gradient)

注:本节中大写字母代表向量,小写字母代表元素

如何向量化计算的同时,对整个训练集预测结果

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,这是我们之前已经讨论过的内容。在本次视频中我们将学习如何向量化地计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练数据的梯度,本次视频的重点是如何同时计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

之前我们在讲梯度计算的时候,列举过几个例子,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_730


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_731

……等等一系列类似公式。现在,对

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练数据做同样的运算,我们可以定义一个新的变量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_733


,所有的

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_528

变量横向排列,因此,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_735

是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_659

的矩阵,或者说,一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python

维行向量。在之前的幻灯片中,我们已经知道如何计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_716

,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_739

,我们需要找到这样的一个行向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_740

,由此,我们可以这样计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_741

,不难发现第一个元素就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_742

,第二个元素就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_743

在之前的实现中,我们已经去掉了一个for循环,但我们仍有一个遍历训练集的循环,如下所示:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_744

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_745

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_746

………….

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_747

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_748

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_749

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_750

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_751

………….

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_752

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_753

上述(伪)代码就是我们在之前实现中做的,我们已经去掉了一个for循环,但用上述方法计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_211

首先我们来看

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_223

,不难发现

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_756


之前的讲解中,我们知道所有的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_757

已经组成一个行向量

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_735

了,所以在Python中,我们很容易地想到

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_759

;接下来看

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_211

,我们先写出它的公式

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_761


其中,

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_33

是一个行向量。因此展开后

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_763

。因此我们可以仅用两行代码进行计算:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_759


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_761

。这样,我们就避免了在训练集上使用for循环。

现在,让我们回顾一下,看看我们之前怎么实现的逻辑回归,可以发现,没有向量化是非常低效的,如下图所示代码:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-xTQVaAVf-1611150677554)(…/images/505663d02e8120e30c3d8405f31a8497.jpg)]

我们的目标是不使用for循环,而是向量,我们可以这么做:

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_766

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_767

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_768

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_769

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_770

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_771

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_772

现在我们利用前五个公式完成了前向和后向传播,也实现了对所有训练样本进行预测和求导,再利用后两个公式,梯度下降更新参数。我们的目的是不使用for循环,所以我们就通过一次迭代实现一次梯度下降,但如果你希望多次迭代进行梯度下降,那么仍然需要for循环,放在最外层。不过我们还是觉得一次迭代就进行一次梯度下降,避免使用任何循环比较舒服一些。

最后,我们得到了一个高度向量化的、非常高效的逻辑回归的梯度下降算法,我们将在下次视频中讨论Python中的Broadcasting技术。

2.15 Python 中的广播(Broadcasting in Python)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-V06yZXvQ-1611150677554)(…/images/685f36c96c86fef53c3abc8fe509949c.png)]

这是一个不同食物(每100g)中不同营养成分的卡路里含量表格,表格为3行4列,列表示不同的食物种类,从左至右依次为苹果,牛肉,鸡蛋,土豆。行表示不同的营养成分,从上到下依次为碳水化合物,蛋白质,脂肪。

那么,我们现在想要计算不同食物中不同营养成分中的卡路里百分比。

现在计算苹果中的碳水化合物卡路里百分比含量,首先计算苹果(100g)中三种营养成分卡路里总和56+1.2+1.8
= 59,然后用56/59 = 94.9%算出结果。

可以看出苹果中的卡路里大部分来自于碳水化合物,而牛肉则不同。

对于其他食物,计算方法类似。首先,按列求和,计算每种食物中(100g)三种营养成分总和,然后分别用不用营养成分的卡路里数量除以总和,计算百分比。

那么,能否不使用for循环完成这样的一个计算过程呢?

假设上图的表格是一个4行3列的矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_716

,记为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_774

,接下来我们要使用Pythonnumpy库完成这样的计算。我们打算使用两行代码完成,第一行代码对每一列进行求和,第二行代码分别计算每种食物每种营养成分的百分比。

jupyter notebook中输入如下代码,按shift+Enter运行,输出如下。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-hTz8K5wQ-1611150677555)(…/images/56f38d09498335ae1155d2102f9b435d.png)]

下面使用如下代码计算每列的和,可以看到输出是每种食物(100g)的卡路里总和。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WiyBfITi-1611150677556)(…/images/c74557c22e724b1aa84ceeb3e5b6685d.png)]

其中​​sum​​​的参数​​axis=0​​表示求和运算按列执行,之后会详细解释。

接下来计算百分比,这条指令将

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_775

的矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_716

除以一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_777

的矩阵,得到了一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_778

的结果矩阵,这个结果矩阵就是我们要求的百分比含量。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KdG5YlFb-1611150677556)(…/images/aa852c608c711a73cb4d834a2956d9ae.png)]

下面再来解释一下​​A.sum(axis = 0)​​​中的参数​​axis​​。axis用来指明将要进行的运算是沿着哪个轴执行,在numpy中,0轴是垂直的,也就是列,而1轴是水平的,也就是行。

而第二个​​A/cal.reshape(1,4)​​指令则调用了numpy中的广播机制。这里使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_778

的矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_716

除以

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_777

的矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_782

。技术上来讲,其实并不需要再将矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_782

​reshape​​​(重塑)成

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_777

,因为矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_782

本身已经是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_777

了。但是当我们写代码时不确定矩阵维度的时候,通常会对矩阵进行重塑来确保得到我们想要的列向量或行向量。重塑操作​​reshape​​​是一个常量时间的操作,时间复杂度是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_787

,它的调用代价极低。

那么一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_778

的矩阵是怎么和

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_777

的矩阵做除法的呢?让我们来看一些更多的广播的例子。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8fl4AJuJ-1611150677557)(…/images/537ee092a262cbdb874fe6e775039823.png)]

在numpy中,当一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_790

的列向量与一个常数做加法时,实际上会将常数扩展为一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_790

的列向量,然后两者做逐元素加法。结果就是右边的这个向量。这种广播机制对于行向量和列向量均可以使用。

再看下一个例子。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-h8q6iDAc-1611150677558)(…/images/d03358cec4b5ea22eb5dbef06fb6a1b7.png)]

用一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_792

的矩阵和一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_793

的矩阵相加,其泛化形式是

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_794

的矩阵和

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_795

的矩阵相加。在执行加法操作时,其实是将

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_795

的矩阵复制成为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_794

下面是最后一个例子

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-O4fpvKRa-1611150677559)(…/images/0fd16b22ad9b31d531ad7aa50f95cbbc.png)]

这里相当于是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_794

的矩阵加上一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_799

的矩阵。在进行运算时,会先将

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_799

矩阵水平复制

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_08

次,变成一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_794

广播机制的一般原则如下:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ITAowufW-1611150677560)(…/images/bdc1b1f6f0ba18659f140e47b26bf38b.png)]

这里我先说一下我本人对numpy广播机制的理解,再解释上面这张PPT。

首先是numpy广播机制

如果两个数组的后缘维度的轴长度相符或其中一方的轴长度为1,则认为它们是广播兼容的。广播会在缺失维度和轴长度为1的维度上进行。

后缘维度的轴长度:​​A.shape[-1]​​ 即矩阵维度元组中的最后一个位置的值

对于视频中卡路里计算的例子,矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_803

后缘维度的轴长度是4,而矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_804

的后缘维度也是4,则他们满足后缘维度轴长度相符,可以进行广播。广播会在轴长度为1的维度进行,轴长度为1的维度对应​​axis=0​​​,即垂直方向,矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_805

沿​​axis=0​​(垂直方向)复制成为 KaTeX parse error: Expected '}', got '_' at position 10: \text{cal_̲temp}_{3,4}

现在解释上图中的例子

矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_806

和矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_807

进行四则运算,后缘维度轴长度相符,可以广播,广播沿着轴长度为1的轴进行,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_807

广播成为

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_809

矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_806

和矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_811

进行四则运算,后缘维度轴长度不相符,但其中一方轴长度为1,可以广播,广播沿着轴长度为1的轴进行,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_811

广播成为

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_809

矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_814

和常数$ R$ 进行四则运算,后缘维度轴长度不相符,但其中一方轴长度为1,可以广播,广播沿着缺失维度和轴长度为1的轴进行,缺失维度就是​​axis=0​​​,轴长度为1的轴是​​axis=1​​​,即

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_815

广播成为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_816

最后,对于Matlab/Octave 有类似功能的函数​​bsxfun​​。

总结一下​​broadcasting​​,可以看看下面的图:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ykpHyMZg-1611150677561)(…/images/695618c70fd2922182dc89dca8eb83cc.png)]

2.16 关于 python _ numpy 向量的说明(A note on python or numpy vectors)参考视频:

本节主要讲Python中的numpy一维数组的特性,以及与行向量或列向量的区别。并介绍了老师在实际应用中的一些小技巧,去避免在coding中由于这些特性而导致的bug

Python的特性允许你使用广播(broadcasting)功能,这是Pythonnumpy程序语言库中最灵活的地方。而我认为这是程序语言的优点,也是缺点。优点的原因在于它们创造出语言的表达性,Python语言巨大的灵活性使得你仅仅通过一行代码就能做很多事情。但是这也是缺点,由于广播巨大的灵活性,有时候你对于广播的特点以及广播的工作原理这些细节不熟悉的话,你可能会产生很细微或者看起来很奇怪的bug。例如,如果你将一个列向量添加到一个行向量中,你会以为它报出维度不匹配或类型错误之类的错误,但是实际上你会得到一个行向量和列向量的求和。

Python的这些奇怪的影响之中,其实是有一个内在的逻辑关系的。但是如果对Python不熟悉的话,我就曾经见过的一些学生非常生硬、非常艰难地去寻找bug。所以我在这里想做的就是分享给你们一些技巧,这些技巧对我非常有用,它们能消除或者简化我的代码中所有看起来很奇怪的bug。同时我也希望通过这些技巧,你也能更容易地写没有bugPythonnumpy代码。

为了演示Python-numpy的一个容易被忽略的效果,特别是怎样在Python-numpy中构造向量,让我来做一个快速示范。首先设置

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_817

,这样会生成存储在数组

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

中的5个高斯随机数变量。之后输出

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,从屏幕上可以得知,此时

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

shape(形状)是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_821

的结构。这在Python中被称作一个一维数组。它既不是一个行向量也不是一个列向量,这也导致它有一些不是很直观的效果。举个例子,如果我输出一个转置阵,最终结果它会和

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

看起来一样,所以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的转置阵最终结果看起来一样。而如果我输出

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的转置阵的内积,你可能会想:

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

乘以

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的转置返回给你的可能会是一个矩阵。但是如果我这样做,你只会得到一个数。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2ExtkWfI-1611150677562)(…/images/a44df591ad815cc67d74a275bd444342.png)]

所以建议你编写神经网络时,不要使用shape为 (5,)(n,) 或者其他一维数组的数据结构。相反,如果你设置

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_830

,那么这就将置于5行1列向量中。在先前的操作里

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的转置看起来一样,而现在这样的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

变成一个新的

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

的转置,并且它是一个行向量。请注意一个细微的差别,在这种数据结构中,当我们输出

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-xmW01YP4-1611150677562)(…/images/264aac3c4b28d894821771308be61417.png)]

如果你输出

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jF6JCpTU-1611150677563)(…/images/424925f28c12891f7807b24e5bb41d8b.png)]

就我们刚才看到的,再进一步说明。首先我们刚刚运行的命令是这个

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_838

,它生成了一个数据结构

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,其中

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_840


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_821

。这被称作

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-A8Wit11I-1611150677564)(…/images/5648345cf0ca282be13961bdc5b1681e.png)]

相反,如果你每次创建一个数组,你都得让它成为一个列向量,产生一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_830

向量或者你让它成为一个行向量,那么你的向量的行为可能会更容易被理解。所以在这种情况下,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_840

等同于

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_830

。这种表现很像

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_228

,但是实际上却是一个列向量。同时这也是为什么当它是一个列向量的时候,你能认为这是矩阵

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_830

;同时这里

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_840

将要变成

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_849

,这就像行向量一样。所以当你需要一个向量时,我会说用这个或那个(column vector or row vector),但绝不会是一维数组。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-orusj4BX-1611150677564)(…/images/2102548104812bdfbccd421f3848f900.png)]

我写代码时还有一件经常做的事,那就是如果我不完全确定一个向量的维度(dimension),我经常会扔进一个断言语句(assertion statement)。像这样,去确保在这种情况下是一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_830

向量,或者说是一个列向量。这些断言语句实际上是要去执行的,并且它们也会有助于为你的代码提供信息。所以不论你要做什么,不要犹豫直接插入断言语句。如果你不小心以一维数组来执行,你也能够重新改变数组维数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_851

,表明一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_830

数组或者一个

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_849

数组,以致于它表现更像列向量或行向量。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Sv8sUt7z-1611150677565)(…/images/147d3a15b0a4dae283662b2c44f91778.png)]

我有时候看见学生因为一维数组不直观的影响,难以定位bug而告终。通过在原先的代码里清除一维数组,我的代码变得更加简洁。而且实际上就我在代码中表现的事情而言,我从来不使用一维数组。因此,要去简化你的代码,而且不要使用一维数组。总是使用

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_854

维矩阵(基本上是列向量),或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_795

维矩阵(基本上是行向量),这样你可以减少很多assert语句来节省核矩阵和数组的维数的时间。另外,为了确保你的矩阵或向量所需要的维数时,不要羞于 reshape 操作。

总之,我希望这些建议能帮助你解决一个Python中的bug,从而使你更容易地完成练习。

2.17 Jupyter/iPython Notebooks快速入门(Quick tour of Jupyter/iPython Notebooks)

学到现在,你即将要开始处理你的第一个编程作业。但在那之前,让我快速地给你介绍一下在Coursera上的iPython Notebooks工具。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-F81bFhDe-1611150677566)(…/images/ad2f424687e9a89e7874a32d65e4f0b8.png)]

这就是Jupyter iPython Notebooks的界面,你可以通过它连接到Coursera。让我快速地讲解下它的一些特性。关于它的说明已经被写入这个Notebook中。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bjyQCfYW-1611150677567)(…/images/bf2ad2256d9b9180f44120571c0415f5.png)]

这里有一些空白区域的代码块,你可以在这里编写代码。有时,你也会看到一些函数块。而关于这些的说明都已经在iPython Notebook的文本中。在iPython Notebook中,在这些较长的灰色的区域就是代码块。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GF1s7gDD-1611150677568)(…/images/c0a121b42faa4cd0ca2d3f2fc6215428.png)]

有时,你会看到代码块中有像这样的开始代码和结束代码。在进行编程练习时,请确保你的代码写在开始代码和结束代码之间。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pVBVz92q-1611150677568)(…/images/067c3d492df18e2ef262857eff04f4b1.png)]

比如,编写打印输出Hello World的代码,然后执行这一代码块(你可以按shift +enter来执行这一代码块)。最终,它就会输出我们想要的Hello World

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-YtfiT7zz-1611150677569)(…/images/c328b10a036e525eebdf7b25e307b967.png)]

在运行一个单元格cell时,你也可以选择运行其中的一块代码区域。通过点击Cell菜单的Run Cells执行这部分代码。

也许,在你的计算机上,运行cell的键盘快捷方式可能并非是shift enter。但是,Mac应该和我的个人电脑一样,可以使用shift + enter来运行cell

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SlInnTqw-1611150677570)(…/images/777048a0bae0db1cb0af3070a2a36aa4.png)]

当你正在阅读指南时,如果不小心双击了它,点中的区域就会变成markdown语言形式。如果你不小心使其变成了这样的文本框,只要运行下单元格cell,就可以回到原来的形式。所以,点击cell菜单的Run Cells或者使用shift + enter,就可以使得它变回原样。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7dFq7N1s-1611150677570)(…/images/e218670e323ffef8c7f182184ae133a3.png)]

这里还有一些其他的小技巧。比如当你执行上面所使用的代码时,它实际上会使用一个内核在服务器上运行这段代码。如果你正在运行超负荷的进程,或者电脑运行了很长一段时间,或者在运行中出了错,又或者网络连接失败,这里依然有机会让Kernel重新工作。你只要点击Kernel,选择Restart,它会重新运行Kernel使程序继续工作。

所以,如果你只是运行相对较小的工作并且才刚刚启动你的ipad或笔记本电脑,这种情况应该是不会发生的。但是,如果你看见错误信息,比如Kernel已经中断或者其他信息,你可以试着重启Kernel

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9mwlMGEi-1611150677572)(…/images/97a410e8ab2e386e2f617b00b5c60dfe.png)]

当我使用iPython Notebook时会有多个代码区域块。尽管我并没有在前面的代码块中添加自己的代码,但还是要确保先执行这块代码。因为在这个例子,它导入了numpy包并另命名为np等,并声明了一些你可能需要的变量。为了能顺利地执行下面的代码,就必须确保先执行上面的代码,即使不要求你去写其他的代码。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jEpNF5ao-1611150677573)(…/images/8764cd16b111b5601a5bbb95ed600fe5.png)]

最后,当你完成作业后,可以通过点击右上方蓝色的Submit Assignment按钮提交你的作业。

我发现这种交互式的shell命令,在iPython Notebooks是非常有用的,能使你快速地实现代码并且查看输出结果,便于学习。所以我希望这些练习和Jupyter iPython Notebooks会帮助你更快地学习和实践,并且帮助你了解如何去实现这些学习算法。后面一个视频是一个选学视频,它主要是讲解逻辑回归中的代价函数。你可以选择是否观看。不管怎样,都祝愿你能通过这两次编程作业。我会在新一周的课程里等待着你。

2.18 (选修)logistic 损失函数的解释(Explanation of logistic regression cost function)

在前面的视频中,我们已经分析了逻辑回归的损失函数表达式,在这节选修视频中,我将给出一个简洁的证明来说明逻辑回归的损失函数为什么是这种形式。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rs42JTm3-1611150677574)(…/images/5b658991f4c61d088aa962310cee99eb.png)]

回想一下,在逻辑回归中,需要预测的结果

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

,可以表示为

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_857


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_723

是我们熟悉的

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_859

型函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_860

。我们约定

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_861

,即算法的输出

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

是给定训练样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

条件下

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

等于1的概率。换句话说,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

,在给定训练样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

条件下

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_867

;反过来说,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164

,在给定训练样本

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_03

条件下

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

等于1减去

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_871

,因此,如果

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

代表

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

的概率,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_874

就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164

的概率。接下来,我们就来分析这两个条件概率公式。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LDGcKcX4-1611150677575)(…/images/c389bc9f882cf1a7d8ebbcf479b1b534.png)]

这两个条件概率公式定义形式为

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_876

并且代表了

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164

或者

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

这两种情况,我们可以将这两个公式合并成一个公式。需要指出的是我们讨论的是二分类问题的损失函数,因此,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

的取值只能是0或者1。上述的两个条件概率公式可以合并成如下公式:

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_880

接下来我会解释为什么可以合并成这种形式的表达式:

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_881


第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_882

次方这行表达式包含了上面的两个条件概率公式,我来解释一下为什么。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-O8gLiHEc-1611150677576)(…/images/09d86925e834ff665b6073fc2129fb57.png)]

第一种情况,假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

,由于

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114

,那么

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_885

,因为

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

的1次方等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_888

的指数项

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_882

等于0,由于任何数的0次方都是1,

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

乘以1等于

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69

。因此当

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_114


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_893

(图中绿色部分)。

第二种情况,当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164


第二周:神经网络的编程基础(Basics of Neural Network programming)_python_876

等于多少呢?

假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164


第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_69


第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_02

次方就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_171

的0次方,任何数的0次方都等于1,因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_900

,前面假设

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164

因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_882

就等于1,因此

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_903

。因此在这里当

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_164

时,

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_905

。这就是这个公式(第二个公式,图中紫色字体部分)的结果。

因此,刚才的推导表明

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_906

,就是

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_876

的完整定义。由于 log 函数是严格单调递增的函数,最大化

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_908

等价于最大化

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_876

并且地计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_876

的 log对数,就是计算

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_911

(其实就是将

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_876

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_913

而这就是我们前面提到的损失函数的负数

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_914

,前面有一个负号的原因是当你训练学习算法时需要算法输出值的概率是最大的(以最大的概率预测这个值),然而在逻辑回归中我们需要最小化损失函数,因此最小化损失函数与最大化条件概率的对数

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_908

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eSE8uTv6-1611150677577)(…/images/5a3c2208dfbc9dbcfac57fde07dfac0e.png)]


第二周:神经网络的编程基础(Basics of Neural Network programming)_python

个训练样本的整个训练集中又该如何表示呢,让我们一起来探讨一下。

让我们一起来探讨一下,整个训练集中标签的概率,更正式地来写一下。假设所有的训练样本服从同一分布且相互独立,也即独立同分布的,所有这些样本的联合概率就是每个样本概率的乘积:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_917


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FBj15Ihc-1611150677578)(…/images/6ce9e585fab07fe9fc124dd2dc14bdbf.png)]

如果你想做最大似然估计,需要寻找一组参数,使得给定样本的观测值概率最大,但令这个概率最大化等价于令其对数最大化,在等式两边取对数:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_918

在统计学里面,有一个方法叫做最大似然估计,即求出一组参数,使这个式子取最大值,也就是说,使得这个式子取最大值,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_919

,可以将负号移到求和符号的外面,

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_920

,这样我们就推导出了前面给出的logistic回归的成本函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_神经网络_921


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-pyY6zLUv-1611150677578)(…/images/6ce9e585fab07fe9fc124dd2dc14bdbf.png)]

由于训练模型时,目标是让成本函数最小化,所以我们不是直接用最大似然概率,要去掉这里的负号,最后为了方便,可以对成本函数进行适当的缩放,我们就在前面加一个额外的常数因子

第二周:神经网络的编程基础(Basics of Neural Network programming)_特征向量_922

,即:

第二周:神经网络的编程基础(Basics of Neural Network programming)_python_923


总结一下,为了最小化成本函数

第二周:神经网络的编程基础(Basics of Neural Network programming)_深度学习_180

,我们从logistic回归模型的最大似然估计的角度出发,假设训练集中的样本都是独立同分布的条件下。尽管这节课是选修性质的,但还是感谢观看本节视频。我希望通过本节课您能更好地明白逻辑回归的损失函数,为什么是那种形式,明白了损失函数的原理,希望您能继续完成课后的练习,前面课程的练习以及本周的测验,在课后的小测验和编程练习中,祝您好运。