![智能控制与强化学习:先进值迭代评判设计](https://wfqqreader-1252317822.image.myqcloud.com/cover/569/53110569/b_53110569.jpg)
1.3.2 无稳态控制的值迭代跟踪算法
对于一些非线性系统,稳态控制可能不存在或者不唯一,这使得具有稳态控制的VI算法无法使用。为了避免求解稳态控制,一些学者提出的跟踪方法使用了由跟踪误差和原系统控制输入组成的代价函数[60]。首先,将跟踪误差系统重写为ek+1=F(ek+rk ,uk)−D(rk),这消除了式(1-31)中的稳态控制。然后,基于增广系统向量,代价函数设计为
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0032-0097.jpg?sign=1738811447-PsU021k6RA93wXBEg9Lkg6gMrMnbiZtG-0-f5f27d2c1847f668ed58ddf3907f68e2)
正如文献[78]指出,式(1-43)中的代价函数需要引入折扣因子,这是由于实际中多数参考轨迹不会趋向于零,因此无折扣情况下的代价函数变得无界。此外,尽管式(1-43)的代价函数形式有效避免了求解稳态控制,但其通常无法消除最终的跟踪误差,因为控制输入uk的最小化并不一定能使跟踪误差ek最小化。
为了避免求解稳态控制和消除最终跟踪误差,对于非线性仿射系统,文献[63]提出了一种新型代价函数为
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0032-0098.jpg?sign=1738811447-qqH5jVNXtIXoaJPxH5KuvFSCPAduOM7W-0-0d9109a63c7f1a7851fd62db350eafaf)
其中,效用函数定义为
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0032-0099.jpg?sign=1738811447-emez3YwzmFcUwlei4e3Ibd9k4qLNg3II-0-fdaadcf09739300b4bbb167e3d1ca07b)
在这种情况下,代价函数表示为
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0033-0100.jpg?sign=1738811447-rMOnXRL4eilb0zMTi7UAkq159DiGYEAw-0-1de5864227c459b785198bcbc370e9df)
根据Bellman最优性原理,最优代价函数满足以下HJB方程
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0033-0101.jpg?sign=1738811447-hksm94QOvlbzkJyq0LU5wVI8VXRuYeb9-0-e65ad13994341a214c9c48b17f085f3f)
然后,相应的最优控制律为
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0033-0102.jpg?sign=1738811447-pXphZYSp3gPLgW4P6OnBTvsRRVGCjXiy-0-8b539d364e55ea28f19c24d2cfc853ef)
其中,ek+1=f(xk)+g(xk)u*(xk)−D(rk)。基于一阶必要条件,进一步可得
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0033-0103.jpg?sign=1738811447-BKWXOSoO1OC2mFB0RF0H5pdiYTlYAjDC-0-ecb633f0afdbfd5413d7e554126b89c8)
为了求解最优代价函数和控制律,初始化代价函数为,建立传统VI算法迭代地更新如下控制律
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0033-0105.jpg?sign=1738811447-Vbi19nl0QmEc3DrMykdnbaqJiJcTRMBg-0-4e282c6d5e6e425a1fa3a91b4cc6d39e)
和代价函数
![](https://epubservercos.yuewen.com/B16329/31604723903745206/epubprivate/OEBPS/Images/figure-0033-0106.jpg?sign=1738811447-ZVHQu9znNa4t9Z38eQudJBFWjoqCIAc3-0-ad54698fafc8964beb68ec32381d2d5c)
文献[63]给出了更新过程如式(1-50)和式(1-51)所示的传统VI算法的收敛性。文献[67]指出由于式(1-51)中的迭代代价函数不仅仅是跟踪误差的函数,因此不能简单地被视为Lyapunov函数,并给出了一种新的稳定性分析方法。基于新型代价函数对状态的偏导数,文献[79]尝试采用 DHP 框架以提升算法的精度和收敛速度。此外,文献[80]利用稳定性准则确定了执行 VI 过程中具有稳定性保证的演化策略,从而实现了新型代价函数下的演化跟踪控制。
总之,VI算法中最优跟踪控制的代价函数主要分为3类,包括式(1-35)、式(1-43)和式(1-44)。接下来,进一步讨论这3种代价函数的适用场景。代价函数式(1-35)和式(1-44)能够完全地消除最终跟踪误差,更适合于模型已知的非线性系统。式(1-43)对于模型未知的非线性系统则具有更大的优势。但是每种形式都有不足之处,代价函数式(1-35)的稳态控制通常难以求解,代价函数式(1-43)的最终跟踪误差通常难以消除,代价函数式(1-44)不适用于非仿射系统。通过比较这些结果,迫切需要设计一个功能更强大的 Q 函数来解决非仿射系统的跟踪问题,在不依赖于系统模型和稳态控制的基础上消除最终跟踪误差。