神经网络loss负数 神经网络loss为0_激活函数

一些问题
将偏置项初始化为0可以吗

  • 可以设置为零,有些人喜欢像初始化权重一样处理偏差项,这样也是可以的。没有太大的区别。

列举SELU激活函数相比ReLU的三个优点

  • 可以使用负值,所以相比使用RELU激活方程,某一给定层的神经元输出平均值,理论上更容易接近于零。这样有助于缓解梯度消失问题。
  • 他总是有一个非零的导数,可以避免影响RELU单元的单元消失问题。
  • 当条件合适时,SELU激活函数可确保模型进行自归一化,从而解决了梯度爆炸与梯度消失问题。

在哪种情况下,你想使用以下每个激活函数:SELU、leaky ReLU、ReLU、tanh、logistic、softmax?

  • SELU激活函数是一个不错的默认选择。
  • 如果对神经网络的速度要求很高,可以用leaky ReLU一个变体代替。
  • tanh如果你需要输出一个介于-1和1之间的数,tanh在输出层比较有效。但是现在在隐藏层的使用频率并不高。
  • 在你需要评估可能性时(比如二进制分类时),逻辑激活函数在输出层比较有效,但是同样在隐藏层中很少使用。(除了变分自动编码器的编码层)
  • softmax在输出层输出互斥类的概率是有效的,但是除了隐藏层以外基本不使用。

列举三种能产生稀疏模型的方法?

  • 一种实现稀疏模型(即大多数权重等于零)的方法是正常训练一个模型,然后将小权重设置为零。为了更稀疏,可以在训练过程中应用l1正则化,这样可以促使优化器更加稀疏。

dropout会减慢训练速度吗?它会减慢推理速度吗(既对新实例进行预测)?MC dropout呢?

  • 确实会减慢训练速度,但是他仅在训练期间打开,因此对推理速度没有影响。MC dropout与训练期间的dropout完全一样,但是在推理过程中它仍然处于运行状态,因此每次推理速度都会稍微放慢。