现 代 控 制 理 论学习

  • 前言
  • 一、前馈控制与反馈控制
  • 1.状态反馈控制
  • 2.输出反馈控制
  • 3.输出跟踪控制
  • 4.极点配置法
  • 二、观测器
  • 隆伯格观测器
  • 基于观测器的状态反馈控制



前言

该文章为汽车学堂 -----自 动 驾 驶 决 策 与 控 制 算 法-----学习笔记


一、前馈控制与反馈控制

前 馈 控 制


反 馈 控 制

前馈控制对于干扰的克服要比反馈控制及时 超前调节,可实现系统输出的不变性(但存在可实现问题)

按偏差控制,存在偏差才能调节,滞后调节

前馈控制属于开环控制

反馈控制属于闭环控制

前馈控制采用的是由对象特性确定的专用控制器

对通道模型要求弱,大多数情况无需各道模型

系统仅能感受有限个可测扰动

系统可感受所有影响输出的扰动

扰动可测,但不要求被控量可测

被控量直接可测

一般采用 前馈 + 反馈,例如自适应巡航 就是以速度误差为反馈 ,汽车纵向动力学为前馈。

•从前馈控制角度,由于增加了反馈控制,降低了对前馈控制模型的精度要求,并能对未选做前馈信号的干扰产生校正作用。
•从反馈控制角度,由于前馈控制的存在,对主要干扰作了及时的粗调作用,大大减少对控制的负担。

1.状态反馈控制

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_其他


系统的动态特性的改变了,系统的可观性 由 A 和 C 矩阵决定 ,系统的可控性 由 A 和 B 矩阵决定 ,系统的稳定性由 A矩阵决定的,由上式决定通过调节 状态增益矩阵 K 来改变系统的动态特性。------LQR 和 极点配置法 !!!!!、

2.输出反馈控制

对于状态不可观的情况可以采用输出反馈控制、

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_反馈控制_02

反馈控制的性质:

反馈可以改变系统的动态特性!!!!!

状态反馈不能改变系统的动态特性!!!

3.输出跟踪控制

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_极点配置_03


基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_其他_04


基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_反馈控制_05

4.极点配置法

已知期望的极点反过来求增益矩阵K 。

通过反馈增益矩阵K的设计,将加入状态反馈后的闭环系统的极点配置在复平面期望的位置上。

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_前馈控制_06

二、观测器

当想采用状态反馈控制但是状态不可测,就需要观测器的存在。

隆伯格观测器

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_极点配置_07


基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_其他_08


基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_基于强化学习的自动驾驶决策方案_09


自己推到的公式为:

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_其他_10


基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_极点配置_11

基于观测器的状态反馈控制

基于强化学习的自动驾驶决策方案 自动驾驶决策与控制_其他_12


只需要求出控制器增益K和观测器增益Ke即可。利用输出反馈和观测器实现类似状态反馈的效果。

1.状态反馈控制器和观测器可分别独立设计。

2.观测器的极点与虚轴的距离,应比系统极点更远。