STM32
直播中

蔡鼎瑾

7年用户 1013经验值
私信 关注
[问答]

如何利用simulink对LQR控制器进行仿真呢

什么样的反馈增益k才是最好的呢?
如何利用simulink对LQR控制器进行仿真呢?

回帖(1)

杨芳

2021-11-22 15:12:10
对于可镇定的线性系统:
写成闭环形式,也就是
我们的做法是通过选择反馈增益k来改变闭环矩阵 A c l 的特征值,从而控制系统的表现。
那么
什么样的反馈增益k才是最好的呢?
在优化理论中,引入cost function的概念,来帮助选择反馈增益k。
找到一个k,使得在满足镇定系统的同时,最小化cost function。

这里,矩阵Q和R都是对角正定矩阵,他们的每一个对角元素的值都代表着对每一个对应的状态的惩罚。
矩阵对角元素的值越大,表示对该状态或输入的惩罚越厉害。那么体现在最终系统的表现上就是,该状态或输入的值越小。
视频中,老师对倒立摆进行建模,得到其状态空间方程下的系统矩阵:A,B


然后利用simulink对其进行仿真:(这里目的主要是学习一下simulink仿真时,如何从0进行建模与simulink仿真)

第一次选择Q=[100 0; 0 1]; R=.01,在MATLAB中用
k=lqr(A,B,Q,R)
命令得到该cost function下的最有反馈增益k。其内部主要是通过求解Riccati方程得到k。
得到如下仿真曲线

可以看到状态最终能够被镇定到0,但是控制输入u太大。
那么接下来,可以尝试将和u相关的矩阵R的值给大一点。对u的值惩罚大,从而得到的仿真结果中,u的计算结果就相对要小一点。同时将Q矩阵中的元素值给小一点,表示不是很关心状态的收敛速度。
第二次选择Q=[1 0; 0 1]; R=100,在MATLAB中用
k=lqr(A,B,Q,R)
得到新的k,仿真得到如下对照曲线。(为了便于观察,复制了一份刚刚的系统,作为对照)

可以看到,蓝色的线条是第二组的仿真结果。收敛速度变慢了,但是控制输入u的值相对的变小了。这样更加符合实际情况,因为有时会考虑到执行器饱和的问题。
总结
这里主要是复习一下LQR的相关知识,并且系统的学习一下,对一个实际的问题进行建模、simulink仿真的过程。
simulink搭建一个模型的时候,主要考虑以下步骤:
将状态空间方程分别写成单个状态的表达式
用n个积分器由 x ˙ 得到 x ,从而得到各个状态,注意积分器要置初值,默认0
搭建控制输入u,构成闭环系统
必要时,对模块化的子系统创建subsystem,便于观察。
举报

更多回帖

发帖
×
20
完善资料,
赚取积分