期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
融入流体松弛模型的决斗双深度Q网络求解动态多重柔性作业车间调度问题
1
作者
杨晓宇
韩玉艳
+2 位作者
王玉亭
李寰
张彪
《控制理论与应用》
北大核心
2025年第11期2332-2340,共9页
鉴于生产过程中订单的随机到达可能导致调度方案无法实现最优,实时动态订单到达成为关键问题.针对动态多重柔性作业车间调度问题(DMFJSP),提出了多策略决斗双深度Q网络(MPD3QN)求解方法.该问题考虑了工件订单和多类型工件的动态到达,首...
鉴于生产过程中订单的随机到达可能导致调度方案无法实现最优,实时动态订单到达成为关键问题.针对动态多重柔性作业车间调度问题(DMFJSP),提出了多策略决斗双深度Q网络(MPD3QN)求解方法.该问题考虑了工件订单和多类型工件的动态到达,首先,为了降低DMFJSP的复杂性,提出了一个简化的流体松弛模型,并基于流体模型设计了多指标选择策略,用于辅助生产调度决策.其次,进一步构建了马尔可夫决策过程(MDP)模型,提取了与工件和机器相关的19个状态特征,设计了20种复合规则作为动作空间.然后,结合优先经验回放、软更新机制和自适应动作选择策略,提出了MPD3QN算法.最后,通过81个测试算例,将所提算法与3种现有的深度强化学习调度方法进行比较,仿真结果验证了其优越性.
展开更多
关键词
柔性制造系统
流体松弛模型
深度强化学习
多策略决斗双深度Q网络
多重性
在线阅读
下载PDF
职称材料
基于单/多智能体简化强化学习的电力系统无功电压控制
被引量:
17
2
作者
马庆
邓长虹
《电工技术学报》
EI
CSCD
北大核心
2024年第5期1300-1312,共13页
为了快速平抑分布式能源接入系统产生的无功电压波动,以强化学习、模仿学习为代表的机器学习方法逐渐被应用于无功电压控制。虽然现有方法能实现在线极速求解,但仍然存在离线训练速度慢、普适性不够等阻碍其应用于实际的缺陷。该文首先...
为了快速平抑分布式能源接入系统产生的无功电压波动,以强化学习、模仿学习为代表的机器学习方法逐渐被应用于无功电压控制。虽然现有方法能实现在线极速求解,但仍然存在离线训练速度慢、普适性不够等阻碍其应用于实际的缺陷。该文首先提出一种适用于输电网集中式控制的单智能体简化强化学习方法,该方法基于“Actor-Critic”架构对强化学习进行简化与改进,保留了强化学习无需标签数据与强普适性的优点,同时消除了训练初期因智能体随机搜索造成的计算浪费,大幅提升了强化学习的训练速度;然后,提出一种适用于配电网分布式零通信控制的多智能体简化强化学习方法,该方法将简化强化学习思想推广形成多智能体版本,同时采用模仿学习进行初始化,将全局优化思想提前注入各智能体,提升各无功设备之间的就地协同控制效果;最后,基于改进IEEE 118节点算例的仿真结果验证了所提方法的正确性与快速性。
展开更多
关键词
无功电压控制
集中式控制
单智能体简化强化学习
分布式控制
多智能体简化强化学习
在线阅读
下载PDF
职称材料
题名
融入流体松弛模型的决斗双深度Q网络求解动态多重柔性作业车间调度问题
1
作者
杨晓宇
韩玉艳
王玉亭
李寰
张彪
机构
聊城大学计算机学院
出处
《控制理论与应用》
北大核心
2025年第11期2332-2340,共9页
基金
国家自然科学基金项目(61973203,61803192,62106073,61966012)
山东省自然科学基金项目(ZR2023MF022,ZR2024MF112)
聊城大学光岳青年创新团队项目(LCUGYTD2022–03)资助。
文摘
鉴于生产过程中订单的随机到达可能导致调度方案无法实现最优,实时动态订单到达成为关键问题.针对动态多重柔性作业车间调度问题(DMFJSP),提出了多策略决斗双深度Q网络(MPD3QN)求解方法.该问题考虑了工件订单和多类型工件的动态到达,首先,为了降低DMFJSP的复杂性,提出了一个简化的流体松弛模型,并基于流体模型设计了多指标选择策略,用于辅助生产调度决策.其次,进一步构建了马尔可夫决策过程(MDP)模型,提取了与工件和机器相关的19个状态特征,设计了20种复合规则作为动作空间.然后,结合优先经验回放、软更新机制和自适应动作选择策略,提出了MPD3QN算法.最后,通过81个测试算例,将所提算法与3种现有的深度强化学习调度方法进行比较,仿真结果验证了其优越性.
关键词
柔性制造系统
流体松弛模型
深度强化学习
多策略决斗双深度Q网络
多重性
Keywords
flexible manufacturing systems
simplified
fluid relaxation model
deep
reinforcement
learning
multi-policy dueling double
deep
Q-network
multiplicity
分类号
TH165 [机械工程—机械制造及自动化]
TP18 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
基于单/多智能体简化强化学习的电力系统无功电压控制
被引量:
17
2
作者
马庆
邓长虹
机构
武汉大学电气与自动化学院
出处
《电工技术学报》
EI
CSCD
北大核心
2024年第5期1300-1312,共13页
基金
国家重点研发计划资助项目(2017YFB0903705)。
文摘
为了快速平抑分布式能源接入系统产生的无功电压波动,以强化学习、模仿学习为代表的机器学习方法逐渐被应用于无功电压控制。虽然现有方法能实现在线极速求解,但仍然存在离线训练速度慢、普适性不够等阻碍其应用于实际的缺陷。该文首先提出一种适用于输电网集中式控制的单智能体简化强化学习方法,该方法基于“Actor-Critic”架构对强化学习进行简化与改进,保留了强化学习无需标签数据与强普适性的优点,同时消除了训练初期因智能体随机搜索造成的计算浪费,大幅提升了强化学习的训练速度;然后,提出一种适用于配电网分布式零通信控制的多智能体简化强化学习方法,该方法将简化强化学习思想推广形成多智能体版本,同时采用模仿学习进行初始化,将全局优化思想提前注入各智能体,提升各无功设备之间的就地协同控制效果;最后,基于改进IEEE 118节点算例的仿真结果验证了所提方法的正确性与快速性。
关键词
无功电压控制
集中式控制
单智能体简化强化学习
分布式控制
多智能体简化强化学习
Keywords
Volt-var control
centralized control
single-agent simplified deep reinforcement learning
decentralized control
multi-agent
simplified
deep
reinforcement
learning
分类号
TM76 [电气工程—电力系统及自动化]
在线阅读
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
融入流体松弛模型的决斗双深度Q网络求解动态多重柔性作业车间调度问题
杨晓宇
韩玉艳
王玉亭
李寰
张彪
《控制理论与应用》
北大核心
2025
0
在线阅读
下载PDF
职称材料
2
基于单/多智能体简化强化学习的电力系统无功电压控制
马庆
邓长虹
《电工技术学报》
EI
CSCD
北大核心
2024
17
在线阅读
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部