目录

  • 前言
  • 一、饱和激活函数
  • 1-1、Sigmoid函数
  • 1-2、Tanh函数
  • 二、非饱和激活函数
  • 2-1、ReLU函数
  • 2-2、Leaky Relu函数
  • 2-3、ELU函数
  • 总结


前言


激活函数是向神经网络中引入非线性因素,通过激活函数神经网络就可以拟合各种曲线(提供网络的非线性建模能力,如果没有激活函数,那么该网络仅能够表达线性映射)。激活函数主要分为饱和激活函数(Saturated Neurons)和非饱和函数(One-sided Saturations)。Sigmoid和Tanh是饱和激活函数,而ReLU以及其变种为非饱和激活函数。非饱和激活函数主要有如下优势: 1、非饱和激活函数可以解决梯度消失问题。 2、非饱和激活函数可以加速收敛。


一、饱和激活函数

1-1、Sigmoid函数

公式
newff激活函数 新的激活函数_python
代码实现

import plotly.express as px
import numpy as np

# 语法:

# 格式: array = numpy.linspace(start, end, num=num_points)将在start和end之间生成一个统一的序列,共有num_points个元素。
# start -> Starting point (included) of the rangestart ->范围的起点(包括)
# end -> Endpoint (included) of the rangeend ->范围的端点(包括)
# num -> Total number of points in the sequencenum >序列中的总点数

# np.linspace用于在线性空间中以均匀步长生成数字序列,默认生成浮点数序列。
x=np.linspace(-10,10)
fig = px.line(x=x, y=1/(1+np.exp(-x)))
fig.show()

函数曲线

newff激活函数 新的激活函数_numpy_02


本质:可以将一个实数映射到(0,1)的区间,可以用来做二分类。

缺点
1、激活函数计算量大。
2、反向传播时,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。即:假设神经元输入Sigmoid的值特别大或者是特别小,对应的梯度约等于0,这样会导致参数无法得到有效的更新。

1-2、Tanh函数

公式
newff激活函数 新的激活函数_机器学习_03
代码实现

import plotly.express as px
import numpy as np
x=np.linspace(-10,10)
fig = px.line(x=x, y=(np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x)))
fig.show()

函数曲线

newff激活函数 新的激活函数_newff激活函数_04

本质:tanh的使用优先是高于Sigmoid函数的。

缺点
1、与sigmoid类似,也存在梯度消失的问题,在饱和时会杀死梯度。
2、当输入较大或较小时,输出几乎是平滑的并且梯度较小,这不利于权重更新。

二、非饱和激活函数

2-1、ReLU函数

本质:当输入小于0时,梯度为0;当输入大于0时,梯度为1。即仅保留正元素并且丢弃掉所有负元素。

公式
newff激活函数 新的激活函数_python_05
代码实现

import plotly.express as px
import numpy as np
x=np.linspace(-10,10)
fig = px.line(x=x, y=np.array([0*item  if item<0 else item for item in x ]))
fig.show()

函数曲线

newff激活函数 新的激活函数_激活函数_06


优点:Relu的提出就是为了解决梯度消失问题,相比于饱和激活函数,收敛速度会快很多,计算速度会快得多。

缺点:有时可能会忽略掉许多神经元,这是因为在输入为负的时候,Relu完全失效。

选择建议:在使用Relu的过程中,要小心设置学习率,否则会出现多个被忽略掉的神经元,如果无法避免,建议使用Leaky Relu激活函数。

2-2、Leaky Relu函数

公式
newff激活函数 新的激活函数_python_07
newff激活函数 新的激活函数_numpy_08
代码实现

import plotly.express as px
import numpy as np
x=np.linspace(-10,10)
fig = px.line(x=x, y=np.array([0.2*item  if item<0 else item for item in x ]))
fig.show()

函数曲线

newff激活函数 新的激活函数_激活函数_09


优点:在一定程度上缓解了Relu的缺点。

2-3、ELU函数

公式
newff激活函数 新的激活函数_python_07
newff激活函数 新的激活函数_机器学习_11
代码实现

import plotly.express as px
import numpy as np
x=np.linspace(-10,10)
fig = px.line(x=x, y=np.array([2.0*(np.exp(item)-1)  if item<0 else item for item in x ]))
fig.show()

函数曲线

newff激活函数 新的激活函数_python_12


优点:融合了sigmoid和ReLU,左侧具有软饱和性,右侧无饱和性。右侧线性部分使得ELU能够缓解梯度消失,而左侧软饱能够让ELU对输入变化或噪声更鲁棒。ELU的输出均值接近于零,所以收敛速度更快。

缺点:计算强度高,计算量较大。

参考文章:
详解激活函数(Sigmoid/Tanh/ReLU/Leaky ReLu等).
花书电子版.
机器学习(九):激活函数.
深度学习笔记:如何理解激活函数?(附常用激活函数).
激活函数 | 深度学习领域最常用的10个激活函数,详解数学原理及优缺点.


总结

平平无奇的一天。