期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
Event-Triggered Zero-Gradient-Sum Distributed Algorithm for Convex Optimization with Time-Varying Communication Delays and Switching Directed Topologies
1
作者 Lei Ye 《Journal of Applied Mathematics and Physics》 2022年第4期1247-1265,共19页
Nowadays, distributed optimization algorithms are widely used in various complex networks. In order to expand the theory of distributed optimization algorithms in the direction of directed graph, the distributed conve... Nowadays, distributed optimization algorithms are widely used in various complex networks. In order to expand the theory of distributed optimization algorithms in the direction of directed graph, the distributed convex optimization problem with time-varying delays and switching topologies in the case of directed graph topology is studied. The event-triggered communication mechanism is adopted, that is, the communication between agents is determined by the trigger conditions, and the information exchange is carried out only when the conditions are met. Compared with continuous communication, this greatly saves network resources and reduces communication cost. Using Lyapunov-Krasovskii function method and inequality analysis, a new sufficient condition is proposed to ensure that the agent state finally reaches the optimal state. The upper bound of the maximum allowable delay is given. In addition, Zeno behavior will be proved not to exist during the operation of the algorithm. Finally, a simulation example is given to illustrate the correctness of the results in this paper. 展开更多
关键词 Distributed Convex Optimisation zero-gradient-sum Algorithm Event-Triggered Time-Varying Delays Switching Network Multi-Agent System Directed Network
在线阅读 下载PDF
两方零和马尔科夫博弈下的策略梯度算法
2
作者 李永强 周键 +1 位作者 冯宇 冯远静 《模式识别与人工智能》 EI CSCD 北大核心 2023年第1期81-91,共11页
在两方零和马尔科夫博弈中,由于玩家策略会受到另一个玩家策略的影响,传统的策略梯度定理只适用于交替训练两个玩家的策略.为了实现同时训练两个玩家的策略,文中给出两方零和马尔科夫博弈下的策略梯度定理.然后,基于该策略梯度定理,提... 在两方零和马尔科夫博弈中,由于玩家策略会受到另一个玩家策略的影响,传统的策略梯度定理只适用于交替训练两个玩家的策略.为了实现同时训练两个玩家的策略,文中给出两方零和马尔科夫博弈下的策略梯度定理.然后,基于该策略梯度定理,提出基于额外梯度的REINFORCE算法,可使玩家的联合策略收敛到近似纳什均衡.文中从多个维度分析算法的优越性.首先,在同时移动博弈游戏上的对比实验表明,文中算法的收敛性和收敛速度较优.其次,分析文中算法得到的联合策略的特点,并验证这些联合策略达到近似纳什均衡.最后,在不同难度等级的同时移动博弈游戏上的对比实验表明,文中算法在更大的难度等级下仍能保持不错的收敛速度. 展开更多
关键词 马尔科夫博弈 零和博弈 策略梯度定理 近似纳什均衡
在线阅读 下载PDF
周期事件触发的多智能体分布式凸优化 被引量:3
3
作者 崔丹丹 刘开恩 +2 位作者 纪志坚 田昌源 崔秋燕 《控制工程》 CSCD 北大核心 2022年第11期2027-2033,共7页
基于周期事件触发机制,研究了具有时变时滞的多智能体系统在强连通有向拓扑下的分布式凸优化问题,提出了一种分布式事件触发零梯度和算法。与时间触发的分布式优化算法相比,该算法可以降低网络系统中的通信负载,具有能耗低和通信成本低... 基于周期事件触发机制,研究了具有时变时滞的多智能体系统在强连通有向拓扑下的分布式凸优化问题,提出了一种分布式事件触发零梯度和算法。与时间触发的分布式优化算法相比,该算法可以降低网络系统中的通信负载,具有能耗低和通信成本低的优点。此外,还证明了智能体的状态渐近收敛到全局最优点。由于事件仅在周期时刻进行检验,那么相邻事件触发时刻的时间间隔的下界是采样周期h,可以直接排除Zeno行为。最后通过数值模拟说明了理论结果的有效性。 展开更多
关键词 分布式凸优化 多智能体系统 周期事件触发机制 零梯度和算法 时变时滞
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部