Advances in Applied Mathematics
Vol. 11  No. 01 ( 2022 ), Article ID: 48070 , 22 pages
10.12677/AAM.2022.111022

基于零和博弈的部分未知线性离散系统多智能体分布式最优跟踪控制

熊天娇1,王朝立2*

1上海理工大学理学院,上海

2上海理工大学光电信息与计算机工程学院,上海

收稿日期:2021年12月13日;录用日期:2022年1月3日;发布日期:2022年1月19日

摘要

本文考虑了具有外部扰动的不确定线性离散系统分布式最优跟踪控制问题。现有的研究要求系统动力学已知且未证明最优解就是纳什均衡解。由于控制策略和干扰之间的竞争关系,该问题首先转变为多智能体零和博弈。本文根据所提出的新性能指标,采用内外循环算法对哈密顿雅可比艾萨克斯(HJI)方程进行迭代求解,并验证了收敛性。此外,它表明该算法得到的最优解是零和博弈的纳什均衡解。本文进一步表明,每当系统不完全已知时,单层神经网络可用于近似实值函数,与现有的三层网络相比,这可以降低计算复杂性。最后,通过仿真验证了该方法的有效性。

关键词

零和博弈,L2-增益,纳什均衡,线性离散系统

The Multiagent Distributed Optimal Tracking Control of Partially Unknown Linear Discrete Systems Based on Zero-Sum Games

Tianjiao Xiong1, Chaoli Wang2*

1School of Science, University of Shanghai for Science and Technology, Shanghai

2School of Optical-Electrical and Computer Engineering, University of Shanghai for Science and Technology, Shanghai

Received: Dec. 13th, 2021; accepted: Jan. 3rd, 2022; published: Jan. 19th, 2022

ABSTRACT

The paper studies the distributed optimal tracking control problem by considering linear discrete systems with unknown disturbances. The existing research requires that the system dynamics are known and have not proved that the optimal solution is the Nash equilibrium. Such a problem is first transformed into a multiagent zero-sum game due to the competitive situation among inputs and disturbances. According to the proposed new performance index, the internal and external loop algorithm is adopted to solve the Hamilton Jacobi Isaacs (HJI) equations iteratively, and the convergence is also proven. In addition, it shows that the optimal solution obtained by the algorithm is the Nash equilibrium of the zero-sum game. This paper further shows that, whenever the system is not fully known, the single-layer neural network could be used to approximate the real value function, which can reduce the computational complexity compared with the prevalent three-layer networks. Finally, simulations are provided to show the effectiveness of the method.

Keywords:Zero-Sum Game, L2-Gain, Nash Equilibrium, Linear Discrete Systems

Copyright © 2022 by author(s) and Hans Publishers Inc.

This work is licensed under the Creative Commons Attribution International License (CC BY 4.0).

http://creativecommons.org/licenses/by/4.0/

1. 引言

近年来,多智能体系统控制因其在各种工程系统中的潜在应用而受到广泛关注,且分布式控制在无人机、移动机器人等领域也有很多应用 [1]。目前,控制系统的结构越来越复杂,实际的工业系统大多数由多个控制器控制,每个控制器都是一个玩家,在这些玩家的合作和竞争之间作出权衡,可以看作是一场博弈。博弈论为多人博弈决策提供了一种有效的方法来获得最优策略 [2] [3] [4] [5]。多玩家博弈可以分为零和博弈和非零和博弈两种,这两类研究结果目前在工程动力学、经济学和社会学上都有了广泛的研究 [6] [7]。

分布式控制的目标是为每个智能体设计一个控制协议,仅依赖于本地邻居信息。在无领导者的协作调节器共识问题中,所有智能体根据其初始条件收敛到一个不可控的共同值。而在合作跟踪共识问题中,所有智能体同步到控制智能体状态或者是一个领导者 [8] [9]。但是在上述论文所提到的算法中不存在最优性保证,则使用博弈论框架来克服这个问题。每个智能体为了找到最优策略,它们通过独立优化其性能指标,而最终得到结果就是纳什均衡解。为了找到纳什均衡解,必须求解耦合哈密顿雅可比(HJ)方程,该方程在线性二次型(LQR)下简化为耦合黎卡提方程 [10],这些耦合的HJ方程求解很困难且依赖于全局信息。况且智能体动力学系统还可能受到外界干扰,当考虑系统中存在干扰的情况,就是二人零和博弈问题,即控制策略和干扰策略是博弈双方,这需要求解HJI方程,但是HJI方程是非常难或不可能求解的。自适应动态规划(ADP)方法 [11] - [21] 被提出,它是处理各种最优控制问题的最有效方法之一,而后随着强化学习(RL) [22] 和神经网络学科的发展,与执行–评价神经网络结合的在线迭代算法 [23] [24] 和值迭代 [25] 相继被提出来,在RL框架下 [26],为一类电压源逆变器设计了一种事件触发输出反馈控制器,解决了线性事件驱动H控制问题。随后,利用RL求解H控制问题 [27],获得连续时间非线性输入约束系统的鲁棒事件驱动控制。而这些是针对单个智能体,对本文中考虑的多智能体难以适用。在这些学习控制方案中成功应用的两种技术是值函数逼近和Q函数 [28] 逼近。在多智能体框架下, [29] [30] 研究了非零和博弈问题,并使用了与执行–评价神经网络结合的策略迭代算法进行求解,但是并没考虑到干扰的存在。 [31] [32] 给出了在系统动力学部分未知时,求解最优控制的有效方法,但是并没有给出最优解和纳什均衡关系的证明。

本文考虑的分布式控制跟踪问题,目标是为每个智能体设计一个仅依赖于邻居信息的控制协议。通过对一定数量的利益达成一致来保证所有智能体的同步行为,使得性能指标最优,跟踪误差L2有界。本文的贡献主要有以下几个方面:第一,相比 [29] [30],都是线性系统,但是本文考虑了系统存在干扰的情况下,如何求得一组纳什均衡解使得性能指标最优,文献没有考虑干扰。第二,相比 [30],我们考虑干扰的同时使用单层网络进行逼近,而文献采用三层神经网络进行逼近,所以减小了计算的复杂度。第三,相比 [31] [32],没有给出纳什均衡的证明,本文给出了求得的最优解满足纳什均衡定义的不等式的证明。

2. 通信图与同步

在本节中,介绍了通信图,并给出了多智能体系统受外部干扰时的同步问题。

2.1. 图论

有向图 G r 定义为 G r = ( V , ζ ) 与N个非空有限集 V = ( v 1 , , v N ) 和一组边 ς V × V ,定义连通矩阵E,使得 E = [ a i j ] ,如果 ( v j , v i ) ζ ,则 e i j > 0 ,否则, e i j = 0 。每个节点 v i 的领域集合为 N i = { v j : ( v j , v i ) ζ } 。定义入度矩阵D为对角矩阵 D = d i a g { d i } d i = j N i a i j 为节点的加权入度,图拉普拉斯矩阵L定义为 L = D E

从节点 v 0 到节点 v r 的有向路径定义为边 v 0 , v 1 , , v r 的序列 ( v i , v i + 1 ) ς , i 0 , 1 , , r 1 。对图中所有 v i , v j V ,如果从 v i v j 存在一个有向路径,则这个有向图强连接的,反之亦然。

2.2. 同步和跟踪误差动力学

考虑通信图 G r = ( V , ζ ) 有N个智能体,每个智能体的局部动态由

x i ( k + 1 ) = A x i ( k ) + B i u i ( k ) + D i w i ( k ) (1)

其中 x i ( k ) R n , u i ( k ) R m i , w i R q i 分别是节点i的状态、控制输入和外部干扰。 A , B i , D i 是具有适当维数的系统矩阵。为了便于表示,我们将 x i ( k ) 写成 x i k u i ( k ) 写成 u i k w i ( k ) 写成 w i k 。领导者节点的状态为 x 0 k R n ,假设它满足动力学

x 0 ( k + 1 ) = A x 0 k . (2)

假设1:领导者连接图中的一小部分节点。

目的是设计控制输入 u i k ,只使用来自邻居节点的信息,使所有智能体的状态同步到领导者的状态,也就是 lim k x i k x 0 k = 0 , i N

对于每个节点i,定义局部邻域跟踪误差 ε i k R n

ε i k = j N i a i j ( x i k x j k ) + g i ( x i k x 0 k ) (3)

其中 g i 0 为节点i的固定增益。如果节点i耦合到控制节点 x 0 k ,则非零。

所有节点的总体跟踪误差向量为

ε k = ( ( L + G ) I n ) x k ( ( L + G ) I n ) x 0 k _ = ( ( L + G ) I n ) ( x k x 0 k _ ) (4)

其中 x k = [ x 1 k T x 2 k T x N k T ] ε k = [ ε 1 k T ε 2 k T ε N k T ] 分别为全局节点状态向量和全局跟踪误差向量。

可以将式(4)重新表示成

ε k = ( ( L + G ) I n ) η k (5)

全局同步误差向量

η k = ( x k x 0 k _ ) R n N . (6)

其中 x 0 _ = I _ x 0 I = 1 _ I n I n n × n 单位矩阵, 1 _ 是n个1组成的向量, G = d i a g { g i } R N × N 是固定增益的对角矩阵。

矩阵的最大奇异值和最小奇异值分别表示为 δ ¯ ( . ) δ _ ( . )

下面的引理表明,小的局部邻域同步误差等价于小的全局同步误差。

引理1 [23]:设 ( L + G ) 为非奇异,那么同步误差的界限是

η k ε k / δ _ ( L + G ) . (7)

备注1:如果对于根节点 g i 0 ,并且图中包含一棵生成树,则 ( L + G ) 是非奇异的。

由(1)和(3),可以得到节点i的局部邻域跟踪误差动态为

ε i ( k + 1 ) f i ( ε i k , u i k , u j k , w i k , w j k ) = A ε i k + ( d i + g i ) B i u i k j N i a i j B j u j k + ( d i + g i ) D i w i k j N i a i j D j w j k (8)

其中 u j k 是智能体i的邻居的控制策略, w j k 是智能体i的邻域的外部干扰。这是一个具有多个控制输入和外界干扰的动态系统。

因此,本文的目标是找到控制策略 u i k ,当干扰输入不存在,即 w i k = 0 时,保证局部邻域同步误差(8)渐近收敛。此外,当干扰输入存在,即 w i k 0 时,控制策略 u i k 保证性能输出满足下列有界 L 2 -增益,并预先确定一个常数 γ > 0

k = 0 z i k 2 = k = 0 ( ε i k T Q i i ε i k + u i k T R i i u i k + j N i u j k T R i j u j k ) γ 2 k = 0 ( w i k T T i i w i k + j N i w j k T T i j w j k ) + β ( ε i ( 0 ) ) (9)

对于某些有界函数,使 β ( 0 ) = 0 ,其中 Q i i > 0 , R i i > 0 , R i j > 0 , T i i > 0 , T i j > 0 γ * 为满足干扰衰减条件(9)的 γ 的最小值,其中 z i k 是性能输出。

3. 多智能体零和博弈

在本节中,我们将定义每个智能体的局部性能指标函数和值函数,并给出满足纳什均衡的条件。利用最优控制原理建立了零和博弈的哈密顿函数和贝尔曼方程,并利用离散哈密顿雅可比理论给出了二者之间的关系。

3.1. 零和博弈

零和博弈是基于每个智能体i对图中其他智能体的响应。

定义智能体i的邻居的控制策略为

u i = { u j | j N i } . (10)

定义智能体i的邻居的外部扰动为

w i = { w j | j N i } . (11)

为每个代理定义以下本地性能指标

J i ( { ε i k , u i k , u i k , w i k , w i k } k 0 ) = k = 0 U i ( ε i k , u i k , u i k , w i k , w i k ) = 1 2 k = 0 ( ε i k T Q i i ε i k + u i k T R i i u i k + j N i u j k T R i j u j k γ 2 k = 0 w i k T T i i w i k + j N i w j k T T i j w j k ) (12)

其中 Q i i > 0 R n i × n i R i i > 0 R m i × m i R i j > 0 R m j × m j T i i > 0 R q i × q i T i j > 0 R q j × q j 是对称时不变加权矩阵, γ > 0 满足有界 L 2 -增益。

动力学(8)和性能指标(12)依赖于图拓扑 G r = ( V , ς )

将智能体i及其邻居的固定策略给出,则每个智能体i的值函数为

V i ( ε i k ) = l = k U i ( ε i l , u i l , u i l , w i l , w i l ) . (13)

备注2:给出了控制策略和外部干扰,其值函数只与局部邻域同步跟踪误差 ε i k 相关。

3.2. 零和博弈的贝尔曼方程

取(13)关于k的一阶差分得到贝尔曼方程

V i ( ε i k ) = U i ( ε i l , u i l , u i l , w i l , w i l ) + V i ( ε i ( k + 1 ) ) (14)

V i ( 0 ) = 0 是初始条件。

因此,有界 L 2 -增益同步问题可以转化为以下的多智能体零和博弈问题.多智能体零和博弈问题的目标是找到 u ¯ i = { u i k } k = 0 w ¯ i = { w i k } k = 0 i N

V i * ( ε i k ) = min u ¯ i max w ¯ i ( V i ( ε i k ) ) = max w ¯ i min u ¯ i ( V i ( ε i k ) ) (15)

其中,控制输入 u i k 试图最小化 V i ( ε i k ) ,而干扰输入 w i k 试图最大化 V i ( ε i k )

根据式(14)和(15)可以得到

V i * ( ε i k ) = min u i k max w i k U i ( ε i l , u i l , u i l , w i l , w i l ) + V i * ( ε i ( k + 1 ) ) . (16)

定义1:多智能体零和博弈最优控制策略和外部扰动策略 ( u i k * , w i k * ) 对于 i N 如果满足以下不等式,那么具有全局纳什均衡解。

J i ( ε i k , u i k * , u i k * , w i k , w i k * ) J i ( ε i k , u i k * , u i k * , w i k * , w i k * ) J i ( ε i k , u i k , u i k * , w i k * , w i k * ) (17)

因此,每个智能体i的最优控制策略表示为

u i k * = ( d i + g i ) R i i 1 B i T V i * ( ε i ( k + 1 ) ) (18)

每个智能体i的最优外部扰动为

w i k * = 1 γ 2 ( d i + g i ) T i i 1 D i T V i * ( ε i ( k + 1 ) ) . (19)

将(18)和式(19)代入式(16)得到零和博弈贝尔曼最优方程

V i * ( ε i k ) = V i * ( ε i ( k + 1 ) ) + 1 2 ( ε i k T Q i i ε i k + ( d i + g i ) 2 V i * ( ε i ( k + 1 ) ) T B i R i i 1 B i T V i * ( ε i ( k + 1 ) ) + j N i ( d i + g i ) 2 V j * ( ε j ( k + 1 ) ) T B j R j j 1 R i j R j j 1 B j T V j * ( ε j ( k + 1 ) ) 1 γ 2 ( d i + g i ) 2 V i * ( ε i ( k + 1 ) ) T D i T i i 1 D i T V i * ( ε i ( k + 1 ) ) 1 γ 2 j N i ( d i + g i ) 2 V j * ( ε j ( k + 1 ) ) T D j T j j 1 T i j T j j 1 D j T V j * ( ε j ( k + 1 ) ) ) (20)

3.3. 零和博弈的哈密顿函数

考虑节点误差动力学(8)和性能指标(12),我们可以将每个智能体i的哈密顿方程定义为

H i ( ε i k , λ i ( k + 1 ) , u i k , u i k , w i k , w i k ) = λ i ( k + 1 ) T ( A ε i k + ( d i + g i ) B i u i k j N i a i j B j u j k + ( d i + g i ) D i w i k j N i a i j D j w j k ) + 1 2 ( ε i k T Q i i ε i k + u i k T R i i u i k + j N i u j k T R i j u j k γ 2 w i k T T i i w i k γ 2 j N i w j k T T i j w j k ) (21)

其中 λ i k = λ i ( k ) 是每个智能体i的伴随变量。由最优性的必要条件,我们得到

H i / ε i k = λ i k λ i k = A T λ i ( k + 1 ) + Q i i ε i k . (22)

最优控制策略由平稳条件 H i / u i k = 0 , H i / w i k = 0 给出:

u i k * = ( d i + g i ) R i i 1 B i T λ i ( k + 1 ) * , (23)

w i k * = 1 γ 2 ( d i + g i ) T i i 1 D i T λ i ( k + 1 ) * . (24)

3.4. 离散哈密顿雅可比理论:哈密顿方程与贝尔曼最优方程的等价性

定义值函数 V i ( ε i k ) 的第一差值为

Δ V i ( ε i k ) = V i ( ε i ( k + 1 ) ) V i ( ε i k ) . (25)

定义值函数 V i ( ε i k ) 的梯度为

V i ( ε i ( k + 1 ) ) = V i ( ε i ( k + 1 ) ) / ε i ( k + 1 ) . (26)

然后我们用值函数定义伴随的变量为

λ i ( k + 1 ) = V i ( ε i ( k + 1 ) ) . (27)

备注3:有关协态变量和值函数梯度的等价关系,可以参考 [29] [33] [34]。

3.5. 耦合HJI方程

将控制策略(18)和干扰策略(19)代入(21)得到耦合的HJI方程

V i ( ε i ( k + 1 ) ) T A i c + 1 2 ε i k T Q i i ε i k + 1 2 ( d i + g i ) 2 V i ( ε i ( k + 1 ) ) T B i R i i B i T V i ( ε i ( k + 1 ) ) + 1 2 j N i ( d j + g j ) 2 V j ( ε j ( k + 1 ) ) T B j R j j 1 R i j R j j 1 V j ( ε j ( k + 1 ) ) 1 2 γ 2 ( d i + g i ) 2 V i ( ε i ( k + 1 ) ) T D i T i i 1 D i T V i ( ε i ( k + 1 ) ) 1 2 γ 2 j N i ( d j + g j ) 2 V j ( ε j ( k + 1 ) ) T D j T j j 1 T i j T j j 1 V j ( ε j ( k + 1 ) ) = 0 (28)

边界条件 V i ( 0 ) = 0

A i c = A ε i k ( d i + g i ) 2 B i R i i 1 B i T V i ( ε i ( k + 1 ) ) + j N i a i j ( d j + g j ) B j R j j 1 B j T V j ( ε j ( k + 1 ) ) + 1 γ 2 ( d i + g i ) 2 D i T i i 1 D i T V i ( ε i ( k + 1 ) ) 1 γ 2 j N i a i j ( d j + g j ) D j T j j 1 D j T V j ( ε j ( k + 1 ) ) .

为智能体i对应的闭环系统。

因此(28)可以改写为

H i ( ε i k , V i * ( ε i ( k + 1 ) ) , u i k * , u i k * , w i k * , w i k * ) = 0 , V i ( 0 ) = 0. (29)

引理2 [35]:选择 γ > γ * 。假设 V i * ( ε i k ) > 0 i N 是耦合HJI方程(25)的正定解。让智能体i的邻域控制策略 u j k 已经最优,然后闭环系统在平衡点

ε i ( k + 1 ) = A ε i k + ( d i + g i ) B i u i k * j N i a i j B j u j k * (30)

渐近稳定,在控制输入 u i k = u i k ( V i * ( ε i k ) ) 的条件下,其中 V i * ( ε i k ) 由式(28)给出。此外,在所有干扰 w i k 存在的情况下控,制输 u i k 入将满足有界 L 2 -增益条件(9)。

证明:引理的证明参考 [36] 中定理1的证明。

引理3 [36]:假设引理2中的假设满足。如果图具有生成树,则全局同步误差 η k L 2 -有界。

由于上述方程的解析解很难得到,我们将寻求其迭代解。

4. 求解HJI方程的多智能体策略迭代算法

4.1. 最佳回应

定义2:假设存在稳定控制策略 u i k 和外界扰动 w i k ,给定固定邻居控制策略 u i k 和扰动策略 w i k 。然后,满足以下不等式的一组策略 ( u i k * , w i k * ) 是最佳响应

J i ( ε i k , u i k * , u i k , w i k , w i k ) J i ( ε i k , u i k * , u i k , w i k * , w i k ) J i ( ε i k , u i k , u i k , w i k * , w i k ) . (31)

控制 u i k = u i k * 由(23)给出,扰动 w i k = w i k * 由(24)给出,给定任意策略 u i k w i k ,定义最佳响应HJI方程

V i ( ε i ( k + 1 ) ) T A i c + 1 2 ε i k T Q i i ε i k + 1 2 ( d i + g i ) 2 V i ( ε i ( k + 1 ) ) T B i R i i B i T V i ( ε i ( k + 1 ) ) + 1 2 j N i u j k T R i j u j k 1 2 γ 2 ( d i + g i ) 2 V i ( ε i ( k + 1 ) ) T D i T i i 1 D i T V i ( ε i ( k + 1 ) ) 1 2 γ 2 j N i w j k T R i j w j k = 0 (32)

边界条件 V i ( 0 ) = 0

4.2. 策略迭代求解HJI方程

本节提出一种策略迭代(PI)算法求解最优响应HJI方程(32)和HJI方程(28),PI算法有内部循环和外部循环。在内环中,控制策略是固定不变的。通过求解哈密顿方程(21),用(19)更新扰动。在外部循环中,使用(18)进行更新迭代控制策略。最后,两个定理证明了算法的收敛性。同时,我们证明出,耦合HJI方程(28)的解就是零和博弈的纳什均衡解。

耦合HJI方程(28)和最优响应HJI方程(32)的策略迭代算法1的收敛性在下面的两个定理中给出。在定理1中,只有智能体i更新自己的策略,而其他邻居的策略是固定的。在定理2中,所有的智能体同时更新它们的策略。

本文所设计的策略迭代(PI)算法如表1所示:

Table 1. Multiagent learning policy iteration to solve the HJI equations

表1. 求解HJI方程的多智能体策略迭代

定理1:假设邻居的策略是固定的,并且存在一个稳定控制策略和扰动策略,其中 γ γ * ,假设智能体i执行算法1。那么值函数 V i ( p , l ) ( ε i k ) 收敛到最优值函数 V i * ( ε i k ) ,其中 V i * ( ε i k ) 是最佳回应HJI方程(32)的解。

证明:首先证明了内环的收敛性。通过 V i ( p , l ) ( ε i k ) 对l沿着误差系统的解求差分

ε i ( k + 1 ) = A ε i k + ( d i + g i ) B i u i k p j N i a i j B j u j k + ( d i + g i ) D i w i k l + 1 j N i a i j D j w j k (36)

因此

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ U i ( ε i k , u i k p , u i k , w i k l , w i k ) U i ( ε i k , u i k p , u i k , w i k l + 1 , w i k ) ] = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i u j k T R i j u j k γ 2 ( w i k l ) T T i i w i k l γ 2 j N i w j k T T i j w j k ) 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i u j k T R i j u j k γ 2 ( w i k l + 1 ) T T i i w i k l + 1 γ 2 j N i w j k T T i j w j k ) ] (37)

由于只有智能体i更新它的策略,因此

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p j N i a i j B j u j k + ( d i + g i ) D i w i k l + 1 j N i a i j D j w j k ) + ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p j N i a i j B j u j k + ( d i + g i ) D i w i k l + 1 j N i a i j D j w j k ) ] (38)

将式(33)代入式(38)可得

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i u j k T R i j u j k γ 2 ( w i k l ) T T i i w i k l γ 2 j N i w j k T T i j w j k ) 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i u j k T R i j u j k γ 2 w i k ( l + 1 ) T T i i w i k l + 1 γ 2 j N i w j k T T i j w j k ) ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l ] (39)

从(39)我们可以得到

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 γ 2 ( w i k l + 1 ) T T i i w i k l + 1 1 2 γ 2 ( w i k l ) T T i i w i k l ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l ] (40)

然后将(34)代入(40),并做一些运算

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 γ 2 ( w i k l + 1 ) T T i i w i k l + 1 + 1 2 γ 2 ( w i k l ) T T i i w i k l γ 2 ( w i k l + 1 ) T T i i w i k l ] = 1 2 γ 2 k [ ( w i k l + 1 w i k l ) T T i i ( w i k l + 1 w i k l ) ] 0. (41)

因此,有 V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) 。因此值函数 V i ( p , l ) ( ε i k ) 对于l是单调递增的,根据公式(9)得到 V i ( ε i k ( p , l ) ) 是有上界的,因此它收敛到一个极限,因此 V i ( p , l ) ( ε i k ) 对于l收敛。这就完成了内环收敛性的证明。

为了证明外环的收敛性,通过 V i ( p , l ) ( ε i k ) 对p沿着误差系统的解求差分

ε i ( k + 1 ) = A ε i k + ( d i + g i ) B i u i k p + 1 j N i a i j B j u j k + ( d i + g i ) D i w i k l j N i a i j D j w j k (42)

因此

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ U i ( ε i k , u i k p , u i k , w i k l , w i k ) U i ( ε i k , u i k p + 1 , u i k , w i k l , w i k ) ] = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i u j k T R i j u j k γ 2 ( w i k l ) T T i i w i k l γ 2 j N i w j k T T i j w j k ) 1 2 ( ε i k T Q i i ε i k + ( u i k p + 1 ) T R i i u i k p + 1 + j N i u j k T R i j u j k γ 2 ( w i k l ) T T i i w i k l γ 2 j N i w j k T T i j w j k ) ] (43)

由于只有智能体i更新它的策略,因此

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p + 1 j N i a i j B j u j k + ( d i + g i ) D i w i k l j N i a i j D j w j k ) + ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p + 1 j N i a i j B j u j k + ( d i + g i ) D i w i k l j N i a i j D j w j k ) ] (44)

将式(33)代入式(44)可得

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i u j k T R i j u j k γ 2 ( w i k l ) T T i i w i k l γ 2 j N i w j k T T i j w j k ) 1 2 ( ε i k T Q i i ε i k + ( u i k p + 1 ) T R i i u i k p + 1 + j N i u j k T R i j u j k γ 2 ( w i k l ) T T i i w i k l γ 2 j N i w j k T T i j w j k ) ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k p + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k p ] (45)

从(45)我们可以得到

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ 1 2 ( ( u i k p + 1 ) T R i i u i k p + 1 ( u i k p ) T R i i u i k p ) ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) B i u i k p + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) B i u i k p ] (46)

然后将(35)代入(46),并做一些运算

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = 1 2 k [ ( u i k p + 1 u i k p ) T R i i ( u i k p + 1 u i k p ) ] 0. (47)

因此,有 V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) 。因此值函数 V i ( p , l ) ( ε i k ) 对于p是单调递减的,根据 V i ( p , l ) ( ε i k ) 的定义,我们知道 V i ( p , l ) ( ε i k ) 是一个下界,因此它收敛到一个极限,因此 V i ( p , l ) ( ε i k ) 对于p收敛。所以对外环收敛性的证明就完成了。

因此,根据上述结果和最优性原理,执行算法1得到的 V i ( p , l ) ( ε i k ) 收敛到最佳响应HJI方程(32)的解 V i * ( ε i k )

备注3:在接下来的证明中,定义 ρ i j = σ ¯ ( R j j 1 R i j ) , β i j = σ ¯ ( T j j 1 T i j ) 的相对权值。

定理2:假设智能体i执行算法1,且所有邻居的策略正在更新,并且存在稳定控制策略和干扰策略。对于小权值 a i j ,相对权值 β i j , ρ i j ,值函数 V i ( p , l ) ( ε i k ) 收敛到最优值函数 V i * ( ε i k ) ,其中 V i * ( ε i k ) 是HJI方程(28)的解。

证明:首先证明了内环的收敛性。通过 V i ( p , l ) ( ε i k ) 对l沿着误差系统的解求差分

ε i ( k + 1 ) = A ε i k + ( d i + g i ) B i u i k p j N i a i j B j u j k p + ( d i + g i ) D i w i k l + 1 j N i a i j D j w j k l (48)

考虑到所有智能体都会更新他们的策略

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l ) T T i i w i k l γ 2 j N i ( w j k l ) T T i j w j k l ) 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l + 1 ) T T i i w i k l + 1 γ 2 j N i ( w j k l ) T T i j w j k l ) ] (49)

因此,我们可以有

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p j N i a i j B j u j k p + ( d i + g i ) D i w i k l + 1 j N i a i j D j w j k l ) + ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p j N i a i j B j u j k p + ( d i + g i ) D i w i k l + 1 j N i a i j D j w j k l ) ] (50)

将式(33)代入式(50)可得

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l ) T T i i w i k l γ 2 j N i ( w j k l ) T T i j w j k l ) 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l + 1 ) T T i i w i k l + 1 γ 2 j N i ( w j k l + 1 ) T T i j w j k l + 1 ) ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j D j w j k l + ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j D j w j k l + 1 ] (51)

从(51)我们可以得到

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 γ 2 ( w i k l + 1 ) T T i i w i k l + 1 + 1 2 γ 2 j N i ( w j k l + 1 ) T T i j w j k l + 1 1 2 γ 2 ( w i k l ) T T i i w i k l 1 2 γ 2 j N i ( w j k l ) T T i j w j k l ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) D i w i k l ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j D j w j k l + ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j D j w j k l + 1 ] (52)

然后将(34)代入(52),并做一些运算

V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) = k [ 1 2 γ 2 ( ( w i k l + 1 ) T T i i w i k l + 1 2 ( w i k l + 1 ) T T i i w i k l + ( w i k l ) T T i i w i k l ) + 1 2 γ 2 j N i ( w j k l + 1 ) T T i j w j k l + 1 1 2 γ 2 j N i ( w j k l ) T T i j w j k l ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j D j w j k l + ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j D j w j k l + 1 ] = k [ 1 2 γ 2 ( w i k l + 1 w i k l ) T T i i ( w i k l + 1 w i k l ) 1 2 γ 2 j N i ( w j k l + 1 w j k l ) T T i j ( w j k l + 1 w j k l ) + γ 2 j N i ( w j k l + 1 ) T T i j ( w j k l + 1 w j k l ) + j N i ( V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T a i j D j ( w j k l + 1 w j k l ) ] (53)

得到了 V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) 的充分条件

1 2 γ 2 σ _ ( T i j ) Δ w j > ( d j + g j ) β i j V j ( p , l ) ( ε j ( k + 1 ) ) ε j ( k + 1 ) D j + a i j V i ( p , l + 1 ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) D j (54)

其中 Δ w j = w j l + 1 w j l σ _ ( T i j ) T i j 的最小奇异值。当 a i j β i j 足够小时, V i ( p , l ) ( ε i k ) V i ( p , l + 1 ) ( ε i k ) 成立。因此值函数 V i ( p , l ) ( ε i k ) 对于l是单调递增的,根据 V i ( p , l ) ( ε i k ) 的定义,我们知道 V i ( p , l ) ( ε i k ) 是有上界的,因此它收敛于一个极限,因此 V i ( p , l ) ( ε i k ) 对于l收敛。这就完成了内环收敛性的证明。(参考 [37] 中定理5的证明)

为了证明外环的收敛性,通过 V i ( p , l ) ( ε i k ) 对p沿着误差系统的解求差分

ε i ( k + 1 ) = A ε i k + ( d i + g i ) B i u i k p + 1 j N i a i j B j u j k p + ( d i + g i ) D i w i k l j N i a i j D j w j k l (55)

考虑到所有智能体都会更新他们的策略

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l ) T T i i w i k l γ 2 j N i ( w j k l ) T T i j w j k l ) 1 2 ( ε i k T Q i i ε i k + ( u i k p + 1 ) T R i i u i k p + 1 + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l ) T T i i w i k l γ 2 j N i ( w j k l ) T T i j w j k l ) ] (56)

因此,我们可以有

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p + 1 j N i a i j B j u j k p + ( d i + g i ) D i w i k l j N i a i j D j w j k l ) + ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( A ε i k + ( d i + g i ) B i u i k p + 1 j N i a i j B j u j k p + ( d i + g i ) D i w i k l j N i a i j D j w j k l ) ] (57)

将式(33)代入式(57)可得

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ 1 2 ( ε i k T Q i i ε i k + ( u i k p ) T R i i u i k p + j N i ( u j k p ) T R i j u j k p γ 2 ( w i k l ) T T i i w i k l γ 2 j N i ( w j k l ) T T i j w j k l ) 1 2 ( ε i k T Q i i ε i k + ( u i k p + 1 ) T R i i u i k p + 1 + j N i ( u j k p + 1 ) T R i j u j k p + 1 γ 2 ( w i k l ) T T i i w i k l γ 2 j N i ( w j k l ) T T i j w j k l ) ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) B i u i k p + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) B i u i k p ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j B j u j k p + ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j B j u j k p + 1 ] (58)

从(58)我们可以得到

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ 1 2 ( ( u i k p + 1 ) T R i i u i k p + 1 + j N i ( u j k p + 1 ) T R i j u j k p + 1 j N i ( u j k p ) T R i j u j k p ( u i k p ) T R i i u i k p ) ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) B i u i k p + 1 + ( V i ( p , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T ( d i + g i ) B i u i k p ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j B j u j k p + ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j B j u j k p + 1 ] (59)

然后将(35)代入(59),并做一些运算

V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) = k [ 1 2 ( ( u i k p + 1 ) T R i i u i k p + 1 2 ( u i k p + 1 ) T R i i u i k p + ( u i k p ) T R i i u i k p ) + 1 2 ( j N i ( u j k p + 1 ) T R i j u j k p + 1 j N i ( u j k p ) T R i j u j k p ) ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j B j u j k p + ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T j N i a i j B j u j k p + 1 ] = k [ 1 2 ( u i k p + 1 u i k p ) T R i i ( u i k p + 1 u i k p ) + 1 2 j N i ( u j k p + 1 u j k p ) T R i j ( u j k p + 1 u j k p ) j N i ( u j k p + 1 ) T R i j ( u j k p + 1 u j k p ) + j N i ( V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) ) T a i j B j ( u j k p + 1 u j k p ) ] (60)

得到了 V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) 的充分条件

1 2 γ 2 σ _ ( R i j ) Δ u j > ( d j + g j ) ρ i j V j ( p , l ) ( ε j ( k + 1 ) ) ε j ( k + 1 ) B j + a i j V i ( p + 1 , l ) ( ε i ( k + 1 ) ) ε i ( k + 1 ) B j (61)

其中 Δ u j = u j p + 1 u j p σ _ ( R i j ) R i j 的最小奇异值。当 a i j ρ i j 足够小时, V i ( p , l ) ( ε i k ) V i ( p + 1 , l ) ( ε i k ) 成立。因此值函数 V i ( p , l ) ( ε i k ) 对于p是单调递减的,根据 V i ( p , l ) ( ε i k ) 的定义,我们知道 V i ( p , l ) ( ε i k ) 是有下界的,因此它收敛于一个极限,因此 V i ( p , l ) ( ε i k ) 对于p收敛。这就完成了外环收敛性的证明。

因此,根据上述结果和最优性原理,我们可以说该算法收敛于耦合HJI方程(28)的解 V i ( ε i k * )

在接下来的定理中,我们将证明耦合HJI方程(28)的解就是零和博弈的纳什均衡解。

定理3:(稳定性和纳什均衡解)让 γ γ * 。所有的智能体的控制策略由(23)给出,干扰策略由(24)给出。各智能体i的最优性能指标为 J i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) = V i * ( ε i l ) ,所有智能体均处于纳什均衡状态。

证明:我们有

J i ( ε i l , u i l , u i l , w i l , w i l ) = V i * ( ε i l ) + k = l [ U i ( ε i l , u i l , u i l , w i l , w i l ) U i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) ] (62)

由值函数定义可得

U i ( ε i k , u i k , u i k , w i k , w i k ) U i * ( ε i k , u i k * , u i k * , w i k * , w i k * ) = 1 2 ( ε i k T Q i i ε i k + u i k T R i i u i k + j N i u j k T R i j u j k γ 2 w i k T T i i w i k γ 2 j N i w j k T T i j w j k ε i k T Q i i ε i k + ( u i k * ) T R i i u i k * j N i ( u j k * ) T R i j u j k * + γ 2 ( w i k * ) T T i i w i k * + γ 2 j N i ( w j k * ) T T i j w j k * ) = 1 2 ( u i k u i k * ) T R i i ( u i k u i k * ) + ( u i k * ) T R i i ( u i k u i k * ) + 1 2 j N i ( u j k u j k * ) T R i j ( u j k u j k * ) + j N i ( u j k * ) T R i j ( u j k u j k * ) 1 2 γ 2 ( w i k w i k * ) T T i i ( w i k w i k * ) γ 2 ( w i k * ) T T i i ( w i k w i k * ) 1 2 γ 2 j N i ( w j k w j k * ) T T i j ( w j k w j k * ) γ 2 j N i ( w j k * ) T T i j ( w j k w j k * ) (63)

使用(63)到(62)得到

J i ( ε i l , u i l , u i l , w i l , w i l ) = V i * ( ε i l ) + k = l [ 1 2 ( u i k u i k * ) T R i i ( u i k u i k * ) + ( u i k * ) T R i i ( u i k u i k * ) + 1 2 j N i ( u j k u j k * ) T R i j ( u j k u j k * ) + j N i ( u j k * ) T R i j ( u j k u j k * ) 1 2 γ 2 ( w i k w i k * ) T T i i ( w i k w i k * ) γ 2 ( w i k * ) T T i i ( w i k w i k * ) 1 2 γ 2 j N i ( w j k w j k * ) T T i j ( w j k w j k * ) γ 2 j N i ( w j k * ) T T i j ( w j k w j k * ) ] (64)

利用(64)得到最优性能指标 J i * ,使

J i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) = V i * ( ε i l ) . (65)

从(62)我们可以得到

J i ( ε i l , u i l , u i l * , w i l * , w i l * ) = V i * ( ε i l ) + k = l [ U i ( ε i l , u i l , u i l * , w i l * , w i l * ) U i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) ] (66)

由值函数定义可知

k = l [ U i ( ε i l , u i l , u i l * , w i l * , w i l * ) U i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) ] 0 (67)

因此

J i ( ε i l , u i l , u i l * , w i l * , w i l * ) J i ( ε i l , u i l * , u i l * , w i l * , w i l * ) (68)

从(68)可以得到

J i ( ε i k , u i k , u i k * , w i k * , w i k * ) J i ( ε i k , u i k * , u i k * , w i k * , w i k * ) (69)

从(62)我们可以得到

J i ( ε i l , u i l , u i l * , w i l , w i l * ) = V i * ( ε i l ) + k = l [ U i ( ε i l , u i l * , u i l * , w i l , w i l * ) U i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) ] (70)

由值函数定义可知

k = l [ U i ( ε i l , u i l * , u i l * , w i l , w i l * ) U i * ( ε i l , u i l * , u i l * , w i l * , w i l * ) ] 0 (71)

因此

J i ( ε i l , u i l * , u i l * , w i l , w i l * ) J i ( ε i l , u i l * , u i l * , w i l * , w i l * ) (72)

从(72)可以得到

J i ( ε i k , u i k * , u i k * , w i k , w i k * ) J i ( ε i k , u i k * , u i k * , w i k * , w i k * ) (73)

从(69)和(73),我们可以得到

J i ( ε i k , u i k * , u i k * , w i k , w i k * ) J i ( ε i k , u i k * , u i k * , w i k * , w i k * ) J i ( ε i k , u i k , u i k * , w i k * , w i k * ) . (74)

这就完成了证明。

在算法1中,我们需要完整的动力学知识。在下一节中,我们给出了一种解决系统动力学部分未知时的最优控制和最优干扰的方法。

5. 神经网络实现多智能体零和博弈在线解

在本节中,由于系统动力学部分未知,HJI方程不能求解,因此接下来采用单层神经网络来逼近值函数,和三层神经网络相比,可以降低计算复杂度。

根据维尔斯特拉斯高阶近似定理,值函数 V i ( ε i ( k + 1 ) ) 可以近似为

V i ( ε i ( k + 1 ) ) = W i T φ ( ε i ( k + 1 ) ) + δ i ( k + 1 ) (75)

其中 W i 是权值,其中 φ ( ε i ( k + 1 ) ) R h 为评价神经网络的激活函数向量,神经网络隐藏层中的神经元数为h。根据维尔斯特拉斯高阶近似定理,神经网络近似误差 δ i ( k + 1 ) h 一致收敛到零。假设当前权重估计 W ^ i ,则神经网络的输出为

V ^ i ( ε i ( k + 1 ) ) = W ^ i T φ ( ε i ( k + 1 ) ) . (76)

控制策略和外部干扰近似为

u ^ i k = ( d i + g i ) R i i 1 B i T V ^ i ( ε i ( k + 1 ) ) , (77)

w ^ i k = 1 γ 2 ( d i + g i ) T i i 1 D i T V ^ i ( ε i ( k + 1 ) ) . (78)

利用神经网络将产生以下残差:

e H i = 1 2 ( ε i k T Q i i ε i k + u i k T R i i u i k + j N i u j k T R i j u j k γ 2 w i k T T i i w i k γ 2 j N i w j k T T i j w j k ) + W ^ i φ ( ε i ( k + 1 ) ) ε i ( k + 1 ) ( ε i k + ( d i + g i ) B i u i k j N i a i j B j u j k + ( d i + g i ) D i w i k j N i a i j D j w j k ) = ( W ^ i ) T ( ϕ ( ε i k ) ϕ ( ε i ( k + 1 ) ) ) 1 2 ( ε i k T Q i i ε i k + u i k T R i i u i k + j N i u j k T R i j u j k γ 2 w i k T T i i w i k γ 2 j N i w j k T T i j w j k ) .

为了使残差平方最小,需要找到 W ^ i

E 1 = 1 2 e H i 2 . (80)

采用基于梯度的自适应方法更新权值

W ^ i l + 1 = W ^ i l α m E 1 W ^ i l . (81)

算法2是神经网络的实现过程,本文所设计的算法2如表2所示:

Table 2. Neural network-based online tuning

表2. 评价网络调优

备注5:在算法2中,我们更新神经网络权值的方法是梯度下降法。假设梯度下降法在每次迭代中都是完全收敛的,则算法2的权值是收敛的,仿真结果表明了该算法的有效性。

备注6:权值得到一致最终有界。证明过程与 [5] [36] [37] 相似。

6. 仿真结果

在本节中,我们利用仿真来验证理论的正确性。考虑有向图中有5个智能体,如图1所示。

我们考虑以下节点动态

x i ( k + 1 ) = A x i ( k ) + B i u i ( k ) + D i w i ( k )

其中智能体动态为: A = [ 0.995 0.09983 0.09983 0.995 ] B 1 = [ 0.47 0.3 ] B 2 = [ 0.07 0.4 ] B 3 = [ 0.047 0.4 ] B 4 = [ 0.07 0.2 ] B 5 = [ 0.047 0.4 ] D 1 = [ 0.21 0.0984 ] D 2 = [ 0.21 0.084 ] D 3 = [ 0.1 0.0984 ] D 4 = [ 0.21 0.0984 ] D 5 = [ 0.21 0.0984 ]

性能指标加权矩阵: Q 11 = Q 22 = Q 33 = Q 44 = Q 55 = [ 1 0 0 1 ]

加权入度: d 2 = 1 d 1 = d 3 = d 4 = d 5 = 2

固定增益: g 1 = g 2 = g 4 = g 5 = 0 g 3 = 1

图1显示了一个考虑5个智能体和一个领导者的有向图,其中领导者连接到一个智能体。图2图3为系统动力学未知情况下,权值和残差随迭代次数增加的变化情况。图2显示了五个智能体的权重迭代。从图中可以看出,5个权重最终收敛。图3为神经网络估计的值函数与真实值函数之间的误差。可以看出,最终的误差收敛到零。当系统动力学信息已知时,我们也可以得到所有代理的状态变化。图4图5图6分别是一个领导者和五个智能体的状态图。从图中还可以看出,跟踪误差消失,所有智能体同步到领导者。图6是状态的三维图。

Figure 1. Communication graph

图1. 通信图

Figure 2. Weights update of agents

图2. 权重随着迭代次数变化图

Figure 3. Residual errors

图3. 残差随着迭代次数变化图

Figure 4. The states of x 0 1 , x 1 1 , x 2 1 , x 3 1 , x 4 1 , x 5 1

图4. 状态的第一个分量随着迭代次数变化图

Figure 5. The states of x 0 2 , x 1 2 , x 2 2 , x 3 2 , x 4 2 , x 5 2

图5. 状态的第二个分量随着迭代次数变化图

Figure 6. The states of x 0 , x 1 , x 2 , x 3 , x 4 , x 5 with respect to iteration steps

图6. 状态随着迭代次数变化的三维立体图

7. 结论

本文研究了受外界干扰的多智能体分布式最优跟踪控制问题,即控制策略与干扰策略的零和博弈问题。目标是求得一组最优控制和最佳干扰解,从而使得跟随者可以跟踪上领导者。而求最优解的本质问题在于求解带有扰动的耦合HJI方程,由于HJI方程是偏微分方程,很难求解,所以本文设计了迭代算法求解HJI方程。

在算法1中,我们设计了内循环和外循环来求得最优解,在内循环中,控制策略是固定不变的,更新迭代干扰策略,在外部循环中,更新迭代控制策略,最后可以求得一组最优控制策略和干扰策略。定理1和定理2证明了算法1的收敛性,从而定理3也证明了最优解就是零和博弈的纳什均衡解,而由于算法1需要知道系统动力学知识,本文是部分未知线性离散系统,所以在A未知时,算法1就不能适用。针对这一问题,提出算法2,本文利用单层神经网络逼近值函数,与传统的三层神经网络分别逼近值函数、控制策略和干扰策略相比,降低了计算的复杂度,算法2在梯度下降法是收敛的前提下则收敛。最后给出的仿真结果进一步验证了理论的正确性。图1显示了一个考虑5个智能体和一个领导者的有向图,从图2图3可以看出权值最终收敛以及残差收敛到0。从图4图5图6可以看出,5个智能体跟随者跟踪上领导者。本文考虑的是线性离散系统,在后续的研究中,我们将会研究更加复杂的动力学系统,以及进一步减少迭代次数。

基金项目

国防基金(JCKY2019413D001);国家自然科学基金(6217023627);上海市自然基金(19ZR1436000)。

文章引用

熊天娇,王朝立. 基于零和博弈的部分未知线性离散系统多智能体分布式最优跟踪控制
The Multiagent Distributed Optimal Tracking Control of Partially Unknown Linear Discrete Systems Based on Zero-Sum Games[J]. 应用数学进展, 2022, 11(01): 158-179. https://doi.org/10.12677/AAM.2022.111022

参考文献

  1. 1. Mu, S.M., Chu, T.G. and Wang, L. (2005) Coordinated Collective Motion in a Motile Particle Group with a Leader. Physica A: Statistical Mechanics & Its Applications, 351, 211-226. https://doi.org/10.1016/j.physa.2004.12.054

  2. 2. Nash, J.F. (1950) Two-Person Cooperative Games. Econometrica, 21, 128-140. https://doi.org/10.2307/1906951

  3. 3. Nash, J.F. (1951) Non-Cooperative Games. Annals of Mathematics, 54, 286-295. https://doi.org/10.2307/1969529

  4. 4. Starr, A.W. and Ho. Y.C. (1969) Nonzero-Sum Differential Games. Journal of Optimization Theory and Applications, 3, 184-206. https://doi.org/10.1007/BF00929443

  5. 5. Vamvoudakis, K.G. and Lewis, F.L. (2011) Multi-Player Non-Zero-Sum Games: Online Adaptive Learning Solution of Coupled Hamilton-Jacobi Equations. Automatica, 47, 1556-1569. https://doi.org/10.1016/j.automatica.2011.03.005

  6. 6. Yang, D.S., Pang, Y.H. and Zhou, B.W. (2019) Fault Diagnosis for Energy Internet Using Correlation Processing-Based Convolutional Neural Networks. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 49, 1739-1748. https://doi.org/10.1109/TSMC.2019.2919940

  7. 7. Yang, X.F. and Gao, J.W. (2016) Linear-Quadratic Uncertain Differential Game with Application to Resource Extraction Problem. IEEE Transactions on Fuzzy Systems: A Publication of the IEEE Neural Networks Council, 24, 819-826. https://doi.org/10.1109/TFUZZ.2015.2486809

  8. 8. Hong, Y.G., Hu, J.P. and Gao, L.X. (2008) Tracking Control for Multi-Agent Consensus with an Active Leader and Variable Topology. Automatica, 42, 1177-1182. https://doi.org/10.1016/j.automatica.2006.02.013

  9. 9. Ren, W., Moore, K.L. and Chen, Y.Q. (2006) High-Order and Model Reference Consensus Algorithms in Cooperative Control of Multivehicle Systems. Journal of Dynamic Systems Measurement and Control, 129, 678-688. https://doi.org/10.1115/1.2764508

  10. 10. Freiling, G., Jank, G. and Abou-Kandil, H. (2002) On Global Existence of Solutions to Coupled Matrix Riccati Equations in Closed-Loop Nash Games. IEEE Transactions on Automatic Control, 41, 264-269. https://doi.org/10.1109/9.481532

  11. 11. Abu-Khalaf, M., Lewis, F.L. and Huang, J. (2007) Policy Iterations on the Hamilton-Jacobi-Isaacs Equation for H∞ State Feedback Control with Input Saturation. IEEE Transactions on Automatic Control, 51, 1989-1995. https://doi.org/10.1109/TAC.2006.884959

  12. 12. Lewis, F.L. and Vrabie, D. (2009) Reinforcement Learning and Adaptive Dynamic Programming for Feedback Control. IEEE Circuits & Systems Magazine, 9, 32-50. https://doi.org/10.1109/MCAS.2009.933854

  13. 13. He, H.B., Ni, Z. and Fu. J. (2012) A Three-Network Architecture for On-Line Learning and Optimization Based on Adaptive Dynamic Programming. Neurocomputing, 78, 3-13. https://doi.org/10.1016/j.neucom.2011.05.031

  14. 14. Dierks, T. and Jagnnathan, S. (2012) Online Optimal Control of Affine Nonlinear Discrete-Time Systems with Unknown Internal Dynamics by Using Timebased Policy Update. IEEE Transactions on Neural Networks & Learning Systems, 23, 1118-1129. https://doi.org/10.1109/TNNLS.2012.2196708

  15. 15. Wei, L.Q., Wang, F.Y. and Liu, D.R. (2014) Finite-Approximation-Error-Based Discrete-Time Iterative Adaptive Dynamic Programming. IEEE Transactions on Cybernetics, 44, 2820-2833. https://doi.org/10.1109/TCYB.2014.2354377

  16. 16. Ni, Z., He, H.B. and Zhao, D.B. (2015) GrDHP: A General Utility Function Representation for Dual Heuristic Dynamic Programming. IEEE Transactions on Neural Networks & Learning Systems, 26, 614-627. https://doi.org/10.1109/TNNLS.2014.2329942

  17. 17. Wei, Q.L., Liu, D.R. and Lin, H.Q. (2016) Value Iteration Adaptive Dynamic Programming for Optimal Control of Discrete-Time Nonlinear Systems. IEEE Transactions on Cybernetics, 46, 840-853. https://doi.org/10.1109/TCYB.2015.2492242

  18. 18. Gao, W.N. and Jiang, Z.P. (2016) Adaptive Dynamic Programming and Adaptive Optimal Output Regulation of Linear Systems. IEEE Transactions on Automatic Control, 61, 4164-4169. https://doi.org/10.1109/TAC.2016.2548662

  19. 19. Zhang, H.G., Liang, H.J. and Wang, Z.S. (2017) Optimal Output Regulation for Heterogeneous Multiagent Systems via Adaptive Dynamic Programming. IEEE Transactions on Neural Networks & Learning Systems, 28, 18-29. https://doi.org/10.1109/TNNLS.2015.2499757

  20. 20. Yang, Y.L., Wunsch, D. and Yin, Y.X. (2017) Hamiltonian-Driven Adaptive Dynamic Programming for Continuous Nonlinear Dynamical Systems. IEEE Transactions on Neural Networks & Learning Systems, 28, 1929-1940. https://doi.org/10.1109/TNNLS.2017.2654324

  21. 21. Sun, J.L. and Long, T. (2020) Event-Triggered Distributed Zero-Sum Differential Game for Nonlinear Multi-Agent Systems Using Adaptive Dynamic Programming. ISA Transactions, 110, 39-52.

  22. 22. 罗傲, 肖文彬, 周琪, 等. 基于强化学习的一类具有输入约束非线性系统最优控制[J/OL]. 控制理论与应用, 2021.

  23. 23. Zhu, Y.H., Zhao, D.B. and Li, X.J. (2017) Iterative Adaptive Dynamic Programming for Solving Unknown Nonlinear Zero-Sum Game Based on Online Data. IEEE Transactions on Neural Networks & Learning Systems, 28, 714-725. https://doi.org/10.1109/TNNLS.2016.2561300

  24. 24. Yasini, S., Sistani, M.B. and Karimpour, A. (2014) Approximate Dynamic Programming for Two-Player Zero-Sum Game Related to H∞ Control of Unknown Nonlinear Continuous-Time Systems. International Journal of Control, Automation and Systems, 13, 99-109. https://doi.org/10.1007/s12555-014-0085-5

  25. 25. Song, R. and Zhu, L. (2019) Stable Value Iteration for Two-Player Zero-Sum Game of Discrete-Time Nonlinear Systems Based on Adaptive Dynamic Programming. Neurocomputing, 340, 180-195.

  26. 26. Vamvoudakis, K.G., Safaei, F.R.P. and Hespanha, J.P. (2019) Robust Event-Triggered Output Feedback Learning Algorithm for Voltage Source Inverters with Unknown Load and Parameter Variations. International Journal of Robust and Nonlinear Control, 29, 3502-3517. https://doi.org/10.1002/rnc.4565

  27. 27. Yang, D.S., Li, T. and Zhang, H.G. (2019) Event-Trigger-Based Robust Control for Nonlinear Constrained-Input Systems Using Reinforcement Learning Method. Neurocomputing, 340, 158-170.

  28. 28. 张正义, 赵学艳. 基于Q学习算法的随机离散时间系统的随机线性二次最优追踪控制[J]. 南京信息工程大学学报, 2020, 13(5): 548-555.

  29. 29. Abouheaf, M.L., Lewis, F.L. and Vamvoudakis, K.G. (2014) Multi-Agent Discrete-Time Graphical Games and Reinforcement Learning Solutions. Automatica, 50, 3038-3053.

  30. 30. Yang, N., Xiao, J.W. and Wang, Y.W. (2018) Non-Zero Sum Differential Graphical Game: Cluster Synchronisation for Multi-Agents with Partially Unknown Dynamics. International Journal of Control, 92, 2408-2419. https://doi.org/10.1080/00207179.2018.1441550

  31. 31. Jiang, H., Zhang, H.G. and Han, J. (2018) Iterative Adaptive Dynamic Programming Methods with Neural Network Implementation for Multiplayer Zero-Sum Games. Neurocomputing, 307, 54-60.

  32. 32. Liu, D.R., Li, H.L. and Wang, D. (2013) Neural-Network-Based Zero-Sum Game for Discrete-Time Nonlinear Systems via Iterative Adaptive Dynamic Programming Algorithm. Neurocomputing, 110, 92-100.

  33. 33. 李传江, 马广富. 最优控制[M]. 北京: 科学出版社, 2011: 216-218.

  34. 34. 吴受章. 最优控制理论与应用[M]. 北京: 机械工业出版社, 2007: 193-194.

  35. 35. Luy, N.T. (2017) Distributed Cooperative H∞ Optimal Tracking Control of Mimo Nonlinear Multi-Agent Systems in Strict-Feedback Form via Adaptive Dynamic Programming. International Journal of Control, 91, 952-968. https://doi.org/10.1080/00207179.2017.1300685

  36. 36. Jiao, Q., Modares, H. and Xu, S.Y. (2016) Multi-Agent Zero-Sum Differential Graphical Games for Disturbance Rejection in Distributed Control. Automatica, 69, 24-34.

  37. 37. Vamvoudakis, K.G., Lewis, F.L. and Hudas, G.R. (2012) Multi-Agent Differential Graphical Games: Online Adaptive Learning Solution for Synchronization with Optimality. Automatica, 48, 1598-1611.

  38. NOTES

    *通讯作者。

期刊菜单