基于BP神经网络得PID自适应控制——simulink平台(详细分析过程+完整代码+仿真结果)(一)
- 一、神经网络简介和人工神经元模型
- 1. 连接权(突触权值)
- 2. 求和单元(加法器)
- 3. 激活函数(非线性)
- (1) 阈值激活函数
- (2) 分段线性激活函数
- (3) sigmoid激活函数
- (4) 双曲正切函数
- 二、神经网络的学习规则
- 1. 误差纠正学习规则
- 2. Hebb学习规则
- 3.竞争学习规则
一、神经网络简介和人工神经元模型
人生神经网络是模仿生物神经网络功能得一种验证模型。生物神经元受到传入的刺激,其反应又从输出端传到相连的神经元,输入与输出之间的关系一般是非线性的。神经网络是有大量的处理单元(神经元)互相连接而成的网络。为了模拟大脑的基本特性,在神经科学研究的基础上,提出了神经网络的模型。时间上,神经网络并没有完全反应大脑的功能,只是对生物神经网络进行了某种抽象、简化和模拟。
人工神经网络的基本单元是神经元模型,其主要包括三个基本要素:
1. 连接权(突触权值)
一组连接(对应于生物神经元的突触),连接强度由各连接上的权值表示,权值为正表示激活,为负表示抑制。
2. 求和单元(加法器)
一个求和单元,用于求取各输入信号的加权和(线性组合)。
3. 激活函数(非线性)
一个非线性激活函数,起到分线性映射作用,并将神经元输出幅值限制在一定范围内(一般限制在(0,1)或(-1,1)之间)。
此外,还有一个阈值(或者偏置)。
以上作用可分别用数学式表达出来:
其中,为输入信号,为神经元之权值,为线性组合结果,为阈值,为激活函数,为神经元的输出。
偏置是神经元的外部参数,我们可以像处理输入信号一样考虑它,因而得到神经元模型的另一种描述图,如下。
对应上图的数学描述为
其中,权值
(1) 阈值激活函数
对应的输出为
(2) 分段线性激活函数
(3) sigmoid激活函数
sigmoid激活函数即为S型函数。
其中可控制斜率。
(4) 双曲正切函数
此函数具有平滑和渐进性,并保持单调性。
二、神经网络的学习规则
通常用到的学习规则有三种。
1. 误差纠正学习规则
在这里,我们令是输入时神经元在n时刻的实际输出,表示期望的输出,则误差信号可写为
最终目的:使某一基于的目标函数达到要求,以使网络中每一输出单元的实际输出在某种意义上逼近应有输出。学习过程是将误差信号作用于神经元k的突出权值修正调节中,以一步步逼近的方式使输出信号向期望靠近。一旦选定了目标函数形式,误差纠正学习就变成了一个典型的优化问题。最常用的目标函数是均方差判据,定义为误差平方和的均值:
E为期望算子。上式的前提是被学习的过程是平稳的,具体方法科用最优梯度下降法。直接用J作为目标函数时需要知道整个过程的统计特性,为解决这一问题,通常用在时刻n的瞬时值代替,即
问题变成求对权值的极小值,按梯度下降法,可得
式中,为学习步长,这就是所说的误差纠正学习规则。
突触权值的更新可按下式来确定
2. Hebb学习规则
由神经心理学家Hebb提出,可归纳为“如果在某一突触(连接)每一边的两个神经元被同步激活,(同为激活或同为抑制),那么突触的强度被选择性地增强,反之则被选择性地减弱”,其数学描述为
(唐纳德·赫布(Donald Olding Hebb,1904.07.22-1985.08.20),加拿大心理学家,认知心理生理学的开创者。出生于加拿大新斯科舍省的切斯特(Chester Basin),逝于加拿大新斯科舍省。)
3.竞争学习规则
在竞争学习时,网络各输出单元相互竞争,最后只有一个最强者被激活。
一篇写不完,转到下一篇继续写基于BP神经网络得PID自适应控制——simulink平台(详细分析过程+完整代码+仿真结果)(二)。