期刊文献+
共找到298篇文章
< 1 2 15 >
每页显示 20 50 100
基于改进Dueling-DQN的多无人机路径规划算法 被引量:1
1
作者 付文浩 葛礼勇 +1 位作者 汪文 张淳 《计算机科学》 北大核心 2025年第8期326-334,共9页
为了解决多无人机在三维未知障碍环境中对动态目标追击的路径规划问题,将人工势场法与深度强化学习算法结合,提出一种基于改进dueling deep Q network(Dueling-DQN)的多无人机路径规划算法,用于解决多无人机合作捕捉动态目标的路径规划... 为了解决多无人机在三维未知障碍环境中对动态目标追击的路径规划问题,将人工势场法与深度强化学习算法结合,提出一种基于改进dueling deep Q network(Dueling-DQN)的多无人机路径规划算法,用于解决多无人机合作捕捉动态目标的路径规划问题。首先,将人工势场法的思想融入到多无人机合作捕捉动态目标的训练奖励函数中,不仅解决了传统人工势场法复杂环境中表现不佳,易陷入局部最优的问题,同时解决了多无人机合作和无人机复杂环境避障问题。此外,为了使无人机之间能更好合作捕捉动态目标,设计了一种多无人机与动态目标的捕捉逃逸策略。仿真结果表明,与Dueling-DQN算法相比,提出的APF-Dueling-DQN算法有效降低了无人机航迹规划任务过程中发生碰撞的概率,缩短了捕捉动态目标所需规划路径长度。 展开更多
关键词 多无人机 dueling-DQN 路径规划 避障 人工势场 捕捉逃逸
在线阅读 下载PDF
二人零和博弈情形下基于Dueling DQN的火力分配方法
2
作者 邱少明 黄昕晨 +1 位作者 刘良玉 俄必聪 《兵器装备工程学报》 北大核心 2025年第5期67-76,共10页
针对火力分配决策维度高,并且参战各方都有不同的战略目标,各方存在着相互耦合、复杂的作用关系,战场态势瞬息万变,传统DQN算法收敛速度慢的问题,提出一种基于Dueling DQN与博弈论相结合的火力分配优化方法。首先,构建二人零和博弈状态... 针对火力分配决策维度高,并且参战各方都有不同的战略目标,各方存在着相互耦合、复杂的作用关系,战场态势瞬息万变,传统DQN算法收敛速度慢的问题,提出一种基于Dueling DQN与博弈论相结合的火力分配优化方法。首先,构建二人零和博弈状态下的火力分配模型。其次,建立了同时为对抗双方进行火力分配决策的Dueling DQN算法框架,提出ε-Nash-Boltzmann策略选取动作,以敌我双方的期望收益差作为奖励函数。实验结果表明,该算法能根据战场状态以最快速度求解得到保卫我方目标的最佳策略,具备在博弈情形下求解高维度的火力分配问题的优势。 展开更多
关键词 火力分配 二人零和博弈 dueling DQN 纳什均衡
在线阅读 下载PDF
基于Dueling-DQN的协同进化算法求解绿色分布式异构柔性作业车间调度问题
3
作者 夏良才 陈仕军 《现代制造工程》 北大核心 2025年第7期8-19,共12页
针对绿色分布式异构柔性作业车间调度问题(Green Distributed Heterogeneous Flexible Job shop Scheduling Problem,GDHFJSP),提出了基于竞争构架深度Q网络算法(Dueling Deep Q-Network,Dueling-DQN)的协同进化算法(Dueling-DQNCE),以... 针对绿色分布式异构柔性作业车间调度问题(Green Distributed Heterogeneous Flexible Job shop Scheduling Problem,GDHFJSP),提出了基于竞争构架深度Q网络算法(Dueling Deep Q-Network,Dueling-DQN)的协同进化算法(Dueling-DQNCE),以最小化最大完工时间和最小化总能耗为目标,选择Pareto前沿解,获得优质的解决方案。首先,在该算法的初始化阶段提出了两种初始化种群方法,有效改善初始解种群的质量。其次,在解码阶段使用活动调度方案能更全面地探索解空间,获取高质量的解。针对多目标问题,提出了快速比较法,能快速高效地得到Pareto前沿解。接着,提出了10种基于知识驱动的邻域搜索策略,并使用Dueling-DQN智能学习来为每个解选择合适的局部搜索策略,加快种群的收敛速度。为了验证Dueling-DQNCE的有效性,将Dueling-DQNCE与文献中最先进的基于深度Q网络的协同进化算法(Co-Evolution with Deep-Q-network,DQCE)在20个算例上进行比较。计算结果表明,Dueling-DQNCE在计算资源和解质量上都优于DQCE,验证了所提出算法的有效性和优越性。 展开更多
关键词 绿色分布式异构作业车间调度 协同进化 Pareto前沿解 竞争架构深度Q网络算法
在线阅读 下载PDF
基于改进DQN的多深度四向穿梭车仓储系统货位分配研究
4
作者 武照云 赵彬彬 +3 位作者 张中伟 李丽 高增恩 金涛 《现代电子技术》 北大核心 2026年第2期178-186,共9页
为解决多深度四向穿梭车仓储系统中因货位分配不合理带来的出库作业效率低、穿梭车拥堵等问题,提出一种基于改进DQN的货位分配优化方法。首先,根据多深度四向穿梭车仓储系统货位分配问题的特点,构建以出入库效率、货架稳定性、巷道作业... 为解决多深度四向穿梭车仓储系统中因货位分配不合理带来的出库作业效率低、穿梭车拥堵等问题,提出一种基于改进DQN的货位分配优化方法。首先,根据多深度四向穿梭车仓储系统货位分配问题的特点,构建以出入库效率、货架稳定性、巷道作业均衡性为目标的优化模型;然后,定义改进DQN的状态-动作空间、奖励函数等,引入优先经验回放机制以增大优质样本的权重并降低数据的相关性,同时引入决斗网络机制区分各动作的相对优势,更好地估计Q值,进而提升复杂高维度状态空间中的训练效率和稳定性。仿真实验结果表明,改进DQN算法的优化结果和收敛速度均优于遗传算法(GA)和DQN,其性能比GA提高了3.91%~18.18%,比DQN提高了3.66%~15.09%,而且在大规模货架和批量订单场景中优势更加显著。 展开更多
关键词 四向穿梭车 货位分配 改进DQN 优先经验回放 决斗网络 状态空间
在线阅读 下载PDF
基于深度强化学习决策的雷达干扰抑制方法
5
作者 肖易寒 孟祥乾 陆钱融 《制导与引信》 2026年第1期22-31,共10页
针对目前雷达干扰抑制决策智能化程度低的问题,提出了一种基于双深度优先经验回放和可变贪婪算法改进的双重竞争深度Q网络(double dueling deep Q network,D3QN)决策的雷达干扰抑制方法。首先对雷达目标回波和干扰混合信号进行特征提取... 针对目前雷达干扰抑制决策智能化程度低的问题,提出了一种基于双深度优先经验回放和可变贪婪算法改进的双重竞争深度Q网络(double dueling deep Q network,D3QN)决策的雷达干扰抑制方法。首先对雷达目标回波和干扰混合信号进行特征提取;然后根据信号特征通过可变贪婪算法选择动作作用于干扰,并将动作前后的信号特征存储于双深度优先经验回放池后,经过学习决策出最优的干扰抑制策略;最后使用该策略抑制干扰后输出。实验结果表明,该方法有效改善了信号的脉压结果,显著提升了信号的信干噪比,相较于基于D3QN的传统干扰抑制方法,在策略准确率和收敛速度上分别提升了7.3%和8.7%。 展开更多
关键词 雷达干扰抑制 双重竞争深度Q网络 双深度优先经验回放 可变贪婪算法 脉冲压缩
在线阅读 下载PDF
LGDLight:线图注意力驱动的区域交通信号控制
6
作者 胡援浩 娄铮铮 +3 位作者 胡世哲 张朝阳 焦重阳 周清雷 《计算机工程与应用》 北大核心 2026年第1期379-390,共12页
针对深度强化学习在区域交通信号控制优化时,多智能体间状态传递过程中所呈现的复杂动态问题,采用线图结构来描述复杂交通网络,使用图注意力网络(graph attention network,GAT)建模路口间动态关系,并将其融入决斗式双深度Q网络(dueling ... 针对深度强化学习在区域交通信号控制优化时,多智能体间状态传递过程中所呈现的复杂动态问题,采用线图结构来描述复杂交通网络,使用图注意力网络(graph attention network,GAT)建模路口间动态关系,并将其融入决斗式双深度Q网络(dueling double deep Q network,D3QN)中,提出线图注意力Q网络交通信号控制方法(line graph deep Q network light,LGDLight)。LGDLight将道路作为节点,路网视为线图,利用图注意力网络来捕捉复杂道路节点间的动态信息交互,增强D3QN对复杂交通状态的感知能力。在仿真环境下的真实车流数据测试实验中,LGDLight相较于其他方法表现出更好的性能,尤其是在车流量较大及路网场景较为复杂情况下所表现出的性能更佳。进一步的实验分析不同奖励机制的影响,结果表明以排队长度作为奖励机制时,该方法能更有效地优化交通信号控制。 展开更多
关键词 交通信号控制 深度强化学习 决斗式双深度Q网络(D3QN) 线图 图注意力网络
在线阅读 下载PDF
一种基于Dueling DQN改进的低轨卫星路由算法 被引量:1
7
作者 许向阳 李京阳 彭文鑫 《长江信息通信》 2023年第7期56-59,共4页
卫星网络具有高动态性、节点处理能力不足,流量负载不均等问题。现有的地面路由算法并不能很好的解决卫星网络存在的问题。针对此问题,提出一种改进Dueling DQN的低轨卫星路由算法。首先,在路由算法中引入决斗网络的思想;然后在经验回... 卫星网络具有高动态性、节点处理能力不足,流量负载不均等问题。现有的地面路由算法并不能很好的解决卫星网络存在的问题。针对此问题,提出一种改进Dueling DQN的低轨卫星路由算法。首先,在路由算法中引入决斗网络的思想;然后在经验回放进行改进,将随机经验采样和优先经验采样进行融合,设置分层采样方法来进行采样;最后对网络进行参数的设置并且进行训练。从仿真和分析表明,从网络传输时延、系统吞吐量、丢包率方面有明显的提升。 展开更多
关键词 卫星路由 分层经验回放 决斗网络
在线阅读 下载PDF
基于Dueling DQN算法的列车运行图节能优化研究 被引量:4
8
作者 刘飞 唐方慧 +3 位作者 刘琳婷 胡文斌 哈进兵 钱程 《都市快轨交通》 北大核心 2024年第2期39-46,共8页
通过优化地铁时刻表可有效降低地铁牵引能耗。为解决客流波动和车辆延误对实际节能率影响的问题,提出列车牵引和供电系统实时潮流计算分析模型和基于Dueling Deep Q Network(Dueling DQN)深度强化学习算法相结合的运行图节能优化方法,... 通过优化地铁时刻表可有效降低地铁牵引能耗。为解决客流波动和车辆延误对实际节能率影响的问题,提出列车牵引和供电系统实时潮流计算分析模型和基于Dueling Deep Q Network(Dueling DQN)深度强化学习算法相结合的运行图节能优化方法,建立基于区间动态客流概率统计的时刻表迭代优化模型,降低动态客流变化对节能率的影响。对预测Q网络和目标Q网络分别选取自适应时刻估计和均方根反向传播方法,提高模型收敛快速性,同时以时刻表优化前、后总运行时间不变、乘客换乘时间和等待时间最小为优化目标,实现节能时刻表无感切换。以苏州轨道交通4号线为例验证方法的有效性,节能对比试验结果表明:在到达换乘站时刻偏差不超过2 s和列车全周转运行时间不变的前提下,列车牵引节能率达5.27%,车公里能耗下降4.99%。 展开更多
关键词 城市轨道交通 时刻表优化 牵引节能 dueling DQN 动态客流
在线阅读 下载PDF
基于Dueling Double DQN的交通信号控制方法 被引量:4
9
作者 叶宝林 陈栋 +2 位作者 刘春元 陈滨 吴维敏 《计算机测量与控制》 2024年第7期154-161,共8页
为了提高交叉口通行效率缓解交通拥堵,深入挖掘交通状态信息中所包含的深层次隐含特征信息,提出了一种基于Dueling Double DQN(D3QN)的单交叉口交通信号控制方法;构建了一个基于深度强化学习Double DQN(DDQN)的交通信号控制模型,对动作... 为了提高交叉口通行效率缓解交通拥堵,深入挖掘交通状态信息中所包含的深层次隐含特征信息,提出了一种基于Dueling Double DQN(D3QN)的单交叉口交通信号控制方法;构建了一个基于深度强化学习Double DQN(DDQN)的交通信号控制模型,对动作-价值函数的估计值和目标值迭代运算过程进行了优化,克服基于深度强化学习DQN的交通信号控制模型存在收敛速度慢的问题;设计了一个新的Dueling Network解耦交通状态和相位动作的价值,增强Double DQN(DDQN)提取深层次特征信息的能力;基于微观仿真平台SUMO搭建了一个单交叉口模拟仿真框架和环境,开展仿真测试;仿真测试结果表明,与传统交通信号控制方法和基于深度强化学习DQN的交通信号控制方法相比,所提方法能够有效减少车辆平均等待时间、车辆平均排队长度和车辆平均停车次数,明显提升交叉口通行效率。 展开更多
关键词 交通信号控制 深度强化学习 dueling Double DQN dueling Network
在线阅读 下载PDF
Energy Optimization for Autonomous Mobile Robot Path Planning Based on Deep Reinforcement Learning
10
作者 Longfei Gao Weidong Wang Dieyun Ke 《Computers, Materials & Continua》 2026年第1期984-998,共15页
At present,energy consumption is one of the main bottlenecks in autonomous mobile robot development.To address the challenge of high energy consumption in path planning for autonomous mobile robots navigating unknown ... At present,energy consumption is one of the main bottlenecks in autonomous mobile robot development.To address the challenge of high energy consumption in path planning for autonomous mobile robots navigating unknown and complex environments,this paper proposes an Attention-Enhanced Dueling Deep Q-Network(ADDueling DQN),which integrates a multi-head attention mechanism and a prioritized experience replay strategy into a Dueling-DQN reinforcement learning framework.A multi-objective reward function,centered on energy efficiency,is designed to comprehensively consider path length,terrain slope,motion smoothness,and obstacle avoidance,enabling optimal low-energy trajectory generation in 3D space from the source.The incorporation of a multihead attention mechanism allows the model to dynamically focus on energy-critical state features—such as slope gradients and obstacle density—thereby significantly improving its ability to recognize and avoid energy-intensive paths.Additionally,the prioritized experience replay mechanism accelerates learning from key decision-making experiences,suppressing inefficient exploration and guiding the policy toward low-energy solutions more rapidly.The effectiveness of the proposed path planning algorithm is validated through simulation experiments conducted in multiple off-road scenarios.Results demonstrate that AD-Dueling DQN consistently achieves the lowest average energy consumption across all tested environments.Moreover,the proposed method exhibits faster convergence and greater training stability compared to baseline algorithms,highlighting its global optimization capability under energy-aware objectives in complex terrains.This study offers an efficient and scalable intelligent control strategy for the development of energy-conscious autonomous navigation systems. 展开更多
关键词 Autonomous mobile robot deep reinforcement learning energy optimization multi-attention mechanism prioritized experience replay dueling deep Q-Network
在线阅读 下载PDF
一种改进dueling网络的机器人避障方法 被引量:6
11
作者 周翼 陈渤 《西安电子科技大学学报》 EI CAS CSCD 北大核心 2019年第1期46-50,63,共6页
针对传统增强学习方法在运动规划领域,尤其是机器人避障问题上存在容易过估计、难以适应复杂环境等不足,提出了一种基于深度增强学习的提升机器人避障性能的新算法模型。该模型将dueling神经网络架构与传统增强学习算法Q学习相结合,并... 针对传统增强学习方法在运动规划领域,尤其是机器人避障问题上存在容易过估计、难以适应复杂环境等不足,提出了一种基于深度增强学习的提升机器人避障性能的新算法模型。该模型将dueling神经网络架构与传统增强学习算法Q学习相结合,并利用两个独立训练的dueling网络处理环境数据来预测动作值,在输出层分别输出状态值和动作优势值,并将两者结合输出最终动作值。该模型能处理较高维度数据以适应复杂多变的环境,并输出优势动作供机器人选择以获得更高的累积奖励。实验结果表明,该新算法模型能有效地提升机器人避障性能。 展开更多
关键词 机器人避障 深度增强学习 dueling网络 独立训练
在线阅读 下载PDF
未知环境下基于Dueling DQN的无人机路径规划研究 被引量:2
12
作者 赵恬恬 孔建国 +1 位作者 梁海军 刘晨宇 《现代计算机》 2024年第5期37-43,共7页
为有效解决无人机在未知环境下的路径规划问题,提出一种基于Dueling DQN的路径规划方法。首先,在DQN的基础上,引入对抗网络架构,从而更好地提高成功率;其次,设计状态空间并定义离散化的动作和适当的奖励函数以引导无人机学习最优路径;... 为有效解决无人机在未知环境下的路径规划问题,提出一种基于Dueling DQN的路径规划方法。首先,在DQN的基础上,引入对抗网络架构,从而更好地提高成功率;其次,设计状态空间并定义离散化的动作和适当的奖励函数以引导无人机学习最优路径;最后在仿真环境中对DQN和Dueling DQN展开训练,结果表明:①Dueling DQN能规划出未知环境下从初始点到目标点的无碰撞路径,且能获得更高的奖励值;②经过50000次训练,Dueling DQN的成功率比DQN提高17.71%,碰撞率减少1.57%,超过最长步长率降低16.14%。 展开更多
关键词 无人机 路径规划 深度强化学习 dueling DQN算法
在线阅读 下载PDF
基于Dueling Network与RRT的机械臂抓放控制 被引量:4
13
作者 王永 李金泽 《机床与液压》 北大核心 2021年第17期59-64,共6页
针对当前机械臂抓取与放置方式固定、指令单一、难以应对复杂未知情况的不足,提出一种基于深度强化学习与RRT的机械臂抓放控制方法。该方法将物件抓取与放置问题视为马尔科夫过程,通过物件视场要素描述以及改进的深度强化学习算法Duelin... 针对当前机械臂抓取与放置方式固定、指令单一、难以应对复杂未知情况的不足,提出一种基于深度强化学习与RRT的机械臂抓放控制方法。该方法将物件抓取与放置问题视为马尔科夫过程,通过物件视场要素描述以及改进的深度强化学习算法Dueling Network实现对未知物件的自主抓取,经过关键点选取以及RRT算法依据任务需要将物件准确放置于目标位置。实验结果表明:该方法简便有效,机械臂抓取与放置自主灵活,可进一步提升机械臂应对未知物件的自主操控能力,满足对不同物件抓取与放置任务的需求。 展开更多
关键词 机械臂 深度强化学习 dueling Network RRT 抓放控制
在线阅读 下载PDF
基于KSP与Dueling DQN的电力通信光缆光路智能迂回方法 被引量:5
14
作者 陆怡菲 顾君佳 +3 位作者 沈昊骢 吴媖 潘俊姚 邢旭亮 《浙江电力》 2022年第12期114-122,共9页
目前电力通信光缆光路迂回选路的传统方法是人工决策,效率低下,导致电力通信业务恢复较慢。为此,提出了一种基于KSP(K条最短路径)与Dueling DQN(竞争深度Q学习网络)的电力通信光缆光路智能迂回方法。使用电力通信光缆网络拓扑信息以及... 目前电力通信光缆光路迂回选路的传统方法是人工决策,效率低下,导致电力通信业务恢复较慢。为此,提出了一种基于KSP(K条最短路径)与Dueling DQN(竞争深度Q学习网络)的电力通信光缆光路智能迂回方法。使用电力通信光缆网络拓扑信息以及光缆类型、同沟道情况、光缆长度、光缆芯数等数据,通过KSP算法寻找K条最短迂回路径,然后采用Dueling DQN评估每条迂回路径的风险值并实现路由选择。将所提方法与传统KSP算法、Nature DQN算法的效果进行对比,该算法光缆光路智能迂回准确率达到99.5%,决策时间缩减至秒级。 展开更多
关键词 电力通信光缆 光路迂回 dueling DQN 最短路径
在线阅读 下载PDF
Dueling-DQN在空调节能控制中的应用 被引量:4
15
作者 李骏翔 李兆丰 +3 位作者 杨赛赛 陶洪峰 姚辉 吴超 《计算机系统应用》 2021年第10期271-279,共9页
针对电信机房空调运行耗电量大,空调自动控制系统设计困难的问题,提出了一种规则约束和DuelingDQN算法相结合的空调节能控制方法.该方法能根据不同机房环境自适应学习建模,在保证机房室内温度在规定范围的前提下,节省空调耗电量.同时针... 针对电信机房空调运行耗电量大,空调自动控制系统设计困难的问题,提出了一种规则约束和DuelingDQN算法相结合的空调节能控制方法.该方法能根据不同机房环境自适应学习建模,在保证机房室内温度在规定范围的前提下,节省空调耗电量.同时针对实际机房应用场景,设计节能控制算法中的状态,动作和奖励函数,并采用深度强化学习算法Dueling-DQN提高模型表达能力和学习效率.在电信机房实际验证结果表明:该控制方法与空调默认设定参数运行相比节能18.3%,并可以很方便推广到不同环境场景的机房环境中,为电信机房节能减排提供解决方案. 展开更多
关键词 节能控制 dueling-DQN 强化学习 机房空调调控
在线阅读 下载PDF
Transformer-Aided Deep Double Dueling Spatial-Temporal Q-Network for Spatial Crowdsourcing Analysis
16
作者 Yu Li Mingxiao Li +2 位作者 Dongyang Ou Junjie Guo Fangyuan Pan 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第4期893-909,共17页
With the rapid development ofmobile Internet,spatial crowdsourcing has becomemore andmore popular.Spatial crowdsourcing consists of many different types of applications,such as spatial crowd-sensing services.In terms ... With the rapid development ofmobile Internet,spatial crowdsourcing has becomemore andmore popular.Spatial crowdsourcing consists of many different types of applications,such as spatial crowd-sensing services.In terms of spatial crowd-sensing,it collects and analyzes traffic sensing data from clients like vehicles and traffic lights to construct intelligent traffic prediction models.Besides collecting sensing data,spatial crowdsourcing also includes spatial delivery services like DiDi and Uber.Appropriate task assignment and worker selection dominate the service quality for spatial crowdsourcing applications.Previous research conducted task assignments via traditional matching approaches or using simple network models.However,advanced mining methods are lacking to explore the relationship between workers,task publishers,and the spatio-temporal attributes in tasks.Therefore,in this paper,we propose a Deep Double Dueling Spatial-temporal Q Network(D3SQN)to adaptively learn the spatialtemporal relationship between task,task publishers,and workers in a dynamic environment to achieve optimal allocation.Specifically,D3SQNis revised through reinforcement learning by adding a spatial-temporal transformer that can estimate the expected state values and action advantages so as to improve the accuracy of task assignments.Extensive experiments are conducted over real data collected fromDiDi and ELM,and the simulation results verify the effectiveness of our proposed models. 展开更多
关键词 Historical behavior analysis spatial crowdsourcing deep double dueling Q-networks
在线阅读 下载PDF
基于Dueling DQN的临近空间飞行器再入轨迹规划 被引量:1
17
作者 田若岑 刘益吉 +2 位作者 肖涛 张顺家 陆远 《制导与引信》 2024年第2期1-10,共10页
针对临近空间飞行器再入段禁飞区规避制导问题,构建了临近空间飞行器再入过程横侧向制导的马尔可夫决策过程(Markov decision process,MDP)模型。基于竞争深度Q网络(dueling deep Q network,Dueling DQN),设计了横侧向制导律及满足射程... 针对临近空间飞行器再入段禁飞区规避制导问题,构建了临近空间飞行器再入过程横侧向制导的马尔可夫决策过程(Markov decision process,MDP)模型。基于竞争深度Q网络(dueling deep Q network,Dueling DQN),设计了横侧向制导律及满足射程需求与禁飞区规避需求的再入过程奖励函数。经仿真验证,该横侧向制导律能够通过改变倾侧角符号实现禁飞区规避,并导引飞行器到达目标区域,具备较高精度,验证了方法的有效性。 展开更多
关键词 临近空间飞行器 再入轨迹规划 竞争深度Q网络
在线阅读 下载PDF
空气污染和700万成人中的死亡率:荷兰环境纵向研究(DUELS)
18
作者 Paul H.Fischer Marten Marra Caroline B.Ameling Gerard Hoek Rob Beelen Kees de Hoogh 《环境与职业医学》 CAS CSCD 北大核心 2015年第12期1141-1141,共1页
[背景]一些城市队列研究已经表明空气污染长期暴露与死亡率相关联。但利用包括非城市人群的大规模人口登记数据分析这种关联的研究却很少。[目的]基于现有的国家数据库,评估荷兰空气污染长期暴露与非意外和死因别死亡率之间的关联。[方... [背景]一些城市队列研究已经表明空气污染长期暴露与死亡率相关联。但利用包括非城市人群的大规模人口登记数据分析这种关联的研究却很少。[目的]基于现有的国家数据库,评估荷兰空气污染长期暴露与非意外和死因别死亡率之间的关联。[方法]使用荷兰现有的有关死亡率、个体特征、居住历史、社区特征以及全国空气污染地图的数据库,其中全国空气污染地图是基于土地利用回归(LUR)技术,并针对空气动力学直径≤10μm(PM10)的颗粒物和二氧化氮(NO2)。使用这些数据库建立一个710万人的队列,且队列中研究对象的年龄均≥30岁。跟踪这一队列7年(2004—2011年),采用Cox比例风险模型校正潜在的个体和区域特定的混杂因素。[结果]校正个人和区域特定的混杂因素后,PM10和NO2每增加10μg/m3与非意外死亡[分别为危险比(HR)=1.08,95%CI:1.07~1.09;HR=1.03,95%CI:1.02~1.03]、呼吸系统死亡(分别为HR=1.13,95%CI:1.10~1.17;HR=1.02,95%CI:1.01~1.03)和肺癌死亡(分别为HR=1.26,95%CI:1.21~1.30;HR=1.10,95%CI:1.09~1.11)相关联。此外,PM_(10)与循环系统疾病死亡率(HR=1.06,95%CI:1.04~1.08)相关,但NO_2与其没有关联(HR=1.00,95%CI:0.99~1.01)。在校正了NO_2之后,PM_(10)的关联表现稳健;在校正了PM_(10)之后,NO^2与非意外死亡率和肺癌死亡率间的关联仍然存在。[结论]PM_(10)和NO_2长期暴露与荷兰30岁以上人群的非意外死亡率和死因别死亡率有关联。 展开更多
关键词 空气污染 duelS 动力学直径 意外死亡 城市人群 模型校正 循环系统疾病 人口登记 混杂因素 个体特征
原文传递
基于强化学习的人道主义应急物资分配优化研究 被引量:2
19
作者 张建军 杨云丹 周一卓 《上海管理科学》 2025年第2期109-117,共9页
当重大突发事件发生后,救援组织如何高效地分配有限的人道主义援助物资,在满足受灾区域物资需求的同时又能降低灾民的痛苦,是一项重要的研究课题。针对这一问题,本文建模了适配的混合非整数线性规划问题MINLP,涉及多期动态最优化分配策... 当重大突发事件发生后,救援组织如何高效地分配有限的人道主义援助物资,在满足受灾区域物资需求的同时又能降低灾民的痛苦,是一项重要的研究课题。针对这一问题,本文建模了适配的混合非整数线性规划问题MINLP,涉及多期动态最优化分配策略求解。作为当前策略探索问题的两种主流方法之一的强化学习算法,通过与环境的交互获取反馈信号以调整策略从而自适应外部动态变化,扩展性极强,比针对特定状态求解的启发式算法更适合动态物资分配场景,由此采取Dueling DQN算法求解最优策略,规避了以往强化学习用于人道主义物资分配领域中存在的Q值过高估计缺点,更精准地求出受灾区域的动作价值函数。与此同时,本文构建需求随机化假设,这一创新使得模型构造更符合受灾场景实际情况,模型的有效性、真实性得以提升。本文以雅安地震为背景,利用数值算例验证了算法的效能,是首篇代入真实数据源佐证强化学习优化应急物资分配方案的论文:相对于传统的DQN方法,Dueling DQN算法能够降低总成本约5%,这意味着在确保物资供给的同时更有效减少了受灾人群的痛苦,彰显了我国“以人为本”的救援原则,在基于人道主义的应急救援方面具备重要的理论和实践意义。 展开更多
关键词 深度强化学习 人道主义 应急物资分配 dueling DQN算法
在线阅读 下载PDF
上一页 1 2 15 下一页 到第
使用帮助 返回顶部