深度学习测试题(1)答案和解析

1.损失函数的定义预测值与真实值之间的差距。选A。

  1. 题中给出的是一个sigmoid函数极限的是在(0,1),这里问的是它的导数S'(x)=S(x)(1-S(x)),所以应该是0。选B。

  2. 根据复合函数求二阶导数,容易得出答案1/4。选A。

  3. 首先被计算的是激活函数的梯度,选C。

  4. 我们回顾下之前介绍的VGG网络结构,VGG中根据卷积核大小和数目的不同,可以分为A、A-LRN、B、C、D、E共6种配置,其中VGG16和VGG19比较常用。 如下图所示

我们针对VGG16进行具体分析发现,VGG16共包含: 13个卷积层(Convolutional Layer),分别用conv3-XXX表示 3个全连接层(Fully connected Layer),分别用FC-XXXX表示 5个池化层(Pool layer),分别用maxpool表示 其中,卷积层和全连接层具有权重系数,因此也被称为权重层,总数目为13+3=16,这即是 VGG16中16的来源。(池化层不涉及权重,因此不属于权重层,不被计数)。 所以这里的16层指的是需要参与训练的层数。选C。

6.这题考察的是大家对keras搭建卷积神经网络的掌握能力。根据题意应选A。 举例 keras搭建VGG16网络部分展示

7.此题与上题类似,参考上图,选A。

8.选D。这图考察梯度消失的概念,dropout是防止过拟合的。

二、不定项选择题

  1. 选ABD。 补充:深度信念网络(DBN)通过采用逐层训练的方式,解决了深层次神经网络的优化问题,通过逐层训练为整个网络赋予了较好的初始权值,使得网络只要经过微调就可以达到最优解。

  2. 选ABD。

  3. 选AB。超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。 一般可以将超参数分为两类:

优化器超参数:包括学习率、minn_batch大小、迭代的epoch次数;

模型超参数:包括网络层数和隐藏层单元数。

  1. 选BD。 梯度是一个向量,目标函数在具体某点沿着梯度的相反方向下降最快,一个形象的比喻是想象你下山的时候,只能走一步下山最快的方向即是梯度的相反方向,每走一步就相当于梯度下降法的一次迭代更新。

  2. 选AB。常用的就是最大池化层和平均池化层。

  3. 选A。Dropout的做法是在训练过程中按一定的比例随机忽略或屏蔽一些神经元。

  4. 选C。D错在每一个节点。 往期精彩回顾