期刊文献+
共找到200篇文章
< 1 2 10 >
每页显示 20 50 100
Remaining useful life prediction for engineering systems under dynamic operational conditions: A semi-Markov decision process-based approach 被引量:6
1
作者 Diyin TANG Jinrong CAO Jinsong YU 《Chinese Journal of Aeronautics》 SCIE EI CAS CSCD 2019年第3期627-638,共12页
For critical engineering systems such as aircraft and aerospace vehicles, accurate Remaining Useful Life(RUL) prediction not only means cost saving, but more importantly, is of great significance in ensuring system re... For critical engineering systems such as aircraft and aerospace vehicles, accurate Remaining Useful Life(RUL) prediction not only means cost saving, but more importantly, is of great significance in ensuring system reliability and preventing disaster. RUL is affected not only by a system's intrinsic deterioration, but also by the operational conditions under which the system is operating. This paper proposes an RUL prediction approach to estimate the mean RUL of a continuously degrading system under dynamic operational conditions and subjected to condition monitoring at short equi-distant intervals. The dynamic nature of the operational conditions is described by a discrete-time Markov chain, and their influences on the degradation signal are quantified by degradation rates and signal jumps in the degradation model. The uniqueness of our proposed approach is formulating the RUL prediction problem in a semi-Markov decision process framework, by which the system mean RUL can be obtained through the solution to a limited number of equations. To extend the use of our proposed approach in real applications, different failure standards according to different operational conditions are also considered. The application and effectiveness of this approach are illustrated by a turbofan engine dataset and a comparison with existing results for the same dataset. 展开更多
关键词 Condition-specific failure threshold Degradation modeling DYNAMIC operational conditions REMAINING useful life Semi-markov decision process
原文传递
Conditional Value-at-Risk for Random Immediate Reward Variables in Markov Decision Processes
2
作者 Masayuki Kageyama Takayuki Fujii +1 位作者 Koji Kanefuji Hiroe Tsubaki 《American Journal of Computational Mathematics》 2011年第3期183-188,共6页
We consider risk minimization problems for Markov decision processes. From a standpoint of making the risk of random reward variable at each time as small as possible, a risk measure is introduced using conditional va... We consider risk minimization problems for Markov decision processes. From a standpoint of making the risk of random reward variable at each time as small as possible, a risk measure is introduced using conditional value-at-risk for random immediate reward variables in Markov decision processes, under whose risk measure criteria the risk-optimal policies are characterized by the optimality equations for the discounted or average case. As an application, the inventory models are considered. 展开更多
关键词 markov decision processes CONDITIONAL VALUE-AT-RISK Risk Optimal Policy INVENTORY model
在线阅读 下载PDF
Modeling of UAV path planning based on IMM under POMDP framework 被引量:4
3
作者 YANG Qiming ZHANG Jiandong SHI Guoqing 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2019年第3期545-554,共10页
In order to enhance the capability of tracking targets autonomously of unmanned aerial vehicle (UAV), the partially observable Markov decision process (POMDP) model for UAV path planning is established based on the PO... In order to enhance the capability of tracking targets autonomously of unmanned aerial vehicle (UAV), the partially observable Markov decision process (POMDP) model for UAV path planning is established based on the POMDP framework. The elements of the POMDP model are analyzed and described. The state transfer law in the model can be described by the method of interactive multiple model (IMM) due to the diversity of the target motion law, which is used to switch the motion model to accommodate target maneuvers, and hence improving the tracking accuracy. The simulation results show that the model can achieve efficient planning for the UAV route, and effective tracking for the target. Furthermore, the path planned by this model is more reasonable and efficient than that by using the single state transition law. 展开更多
关键词 PARTIALLY OBSERVABLE markov decision process (POmdp) interactive multiple model (IMM) filtering path planning target tracking state transfer law
在线阅读 下载PDF
云制造环境下整车制造冲压资源调度MDP模型研究
4
作者 胡艳娟 潘雷霆 +1 位作者 尹长华 张岩 《长春工业大学学报》 2025年第4期335-342,共8页
建立一种基于拓扑顺序的智能调度框架的同时,提出了一种面向整车制造冲压资源的MDP模型。然后,在考虑时间、质量、成本指标的基础上,围绕冲压生产过程特点设计兼顾资源服务类型切换次数与任务完成顺序的调度评价方法。并在此基础上,构... 建立一种基于拓扑顺序的智能调度框架的同时,提出了一种面向整车制造冲压资源的MDP模型。然后,在考虑时间、质量、成本指标的基础上,围绕冲压生产过程特点设计兼顾资源服务类型切换次数与任务完成顺序的调度评价方法。并在此基础上,构建了冲压资源调度MDP模型的奖励函数,采用个性化权重实现资源调度过程的多目标平衡。通过构建云制造环境下整车制造冲压资源调度MDP模型,为实现任务完成顺序、资源切换次数及多目标平衡的调度优化提供理论支撑。 展开更多
关键词 云制造 整车制造冲压生产 资源调度 马尔可夫决策模型
在线阅读 下载PDF
A Novel Dynamic Decision Model in 2-player Symmetric Repeated Games
5
作者 Liu Weibing Wang Xianjia Wang Guangmin 《Engineering Sciences》 EI 2008年第1期43-46,共4页
Considering the dynamic character of repeated games and Markov process, this paper presented a novel dynamic decision model for symmetric repeated games. In this model, players' actions were mapped to a Markov decisi... Considering the dynamic character of repeated games and Markov process, this paper presented a novel dynamic decision model for symmetric repeated games. In this model, players' actions were mapped to a Markov decision process with payoffs, and the Boltzmann distribution was intousluced. Our dynamic model is different from others' , we used this dynamic model to study the iterated prisoner' s dilemma, and the results show that this decision model can successfully be used in symmetric repeated games and has an ability of adaptive learning. 展开更多
关键词 game theory evolutionary game repeated game markov process decision model
在线阅读 下载PDF
基于SMDP的安全防护基础设施网络切片服务响应模型
6
作者 王璐茜 葛洪武 +1 位作者 朱晓明 贾哲 《计算机测量与控制》 2025年第4期299-305,共7页
在创建各种安全防护基础切片络切片的过程中,安全防护基础设施提供商主要负责响应切片服务请求和分配资源,但其切片资源有限,切片服务存在响应速度慢的问题;因此,针对安全防护基础设施提供商的服务决策过程,提出了一种基于半马尔可夫决... 在创建各种安全防护基础切片络切片的过程中,安全防护基础设施提供商主要负责响应切片服务请求和分配资源,但其切片资源有限,切片服务存在响应速度慢的问题;因此,针对安全防护基础设施提供商的服务决策过程,提出了一种基于半马尔可夫决策过程的安全防护基础设施网络切片服务响应模型;经过仿真分析,基于SMDP的模型在有限的资源条件下,能够提高切片资源利用效率并最大化收益,高效地响应切片服务请求。 展开更多
关键词 安全防护基础设施 网络切片 半马尔可夫决策过程 安全防护基础设施提供商 服务响应模型
在线阅读 下载PDF
基于HMDP的无人机三维路径规划 被引量:8
7
作者 洪晔 房建成 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2009年第1期100-103,共4页
路径规划是UAV(Unmanned Aerial Vehicle)自主飞行的重要保障.初步建立了基于MDP(Markov Decision Processes)的全局路径规划模型,把UAV的路径规划看作是给定环境模型和奖惩原则的情况下,寻求最优策略的问题;为解决算法时空开销大、UAV... 路径规划是UAV(Unmanned Aerial Vehicle)自主飞行的重要保障.初步建立了基于MDP(Markov Decision Processes)的全局路径规划模型,把UAV的路径规划看作是给定环境模型和奖惩原则的情况下,寻求最优策略的问题;为解决算法时空开销大、UAV航向改变频繁的缺点,提出一种基于状态聚类方法的HMDP(Hierarchical Markov Decision Processes)模型,并将其拓展到三维规划中.仿真实验证明:这种简单的规划模型可以有效解决UAV的三维全局路径规划问题,为其在实际飞行中的局部规划奠定了基础. 展开更多
关键词 无人机(UAV) 路径规划 马尔可夫决策过程(mdp) 分层马尔可夫决策过程(Hmdp) 仿真
原文传递
基于内部结构MPoMDP模型的策略梯度学习算法 被引量:1
8
作者 张润梅 王浩 +2 位作者 张佑生 姚宏亮 方长胜 《计算机工程与应用》 CSCD 北大核心 2009年第7期20-23,共4页
为了提高MPOMDP模型的知识表示能力和推理效率,提出一种基于Agent内部结构的MPOMDP模型。该模型能表示Agent的内部结构及其时间演化,并通过将系统联合概率分布表示成每个Agent内部变量集的局部因式形式,以提高模型的推理效率。将GPI-PO... 为了提高MPOMDP模型的知识表示能力和推理效率,提出一种基于Agent内部结构的MPOMDP模型。该模型能表示Agent的内部结构及其时间演化,并通过将系统联合概率分布表示成每个Agent内部变量集的局部因式形式,以提高模型的推理效率。将GPI-POMDP算法扩展到基于内部结构的MPOMDP模型中,给出基于内部状态的多Agent策略梯度算法(MIS-GPOMDP),来求解基于内部结构的MPOMDP。实验结果表明MIS-GPOMDP算法具有较高的推理效率,且算法是收敛的。 展开更多
关键词 马尔可夫决策过程 强化学习 MPOmdp模型 策略梯度算法
在线阅读 下载PDF
基于MDP的战机对抗导弹措施优化方法 被引量:1
9
作者 宋海方 肖明清 +1 位作者 陈游 胡阳光 《北京航空航天大学学报》 EI CAS CSCD 北大核心 2017年第5期942-950,共9页
对战机对抗导弹的措施优化问题进行了研究,将该问题归结为不确定条件下的序贯决策问题,提出了一种基于Markov决策过程(MDP)的导弹对抗措施优化方法。首先,该方法根据作战过程将作战阶段分为不同的状态,将电子对抗措施(ECM)和战术机动作... 对战机对抗导弹的措施优化问题进行了研究,将该问题归结为不确定条件下的序贯决策问题,提出了一种基于Markov决策过程(MDP)的导弹对抗措施优化方法。首先,该方法根据作战过程将作战阶段分为不同的状态,将电子对抗措施(ECM)和战术机动作为可供战机选择的行动;然后,通过不同战术行动下状态之间的转移概率来反映行动的不确定性,以雷达搜索状态和导弹命中状态的期望值来表征不同策略下的飞机生存力;最后,通过建立Markov决策模型得到飞机生存力最大时各个状态对应的最佳行动。仿真结果表明:飞机生存力随着时间推移而逐渐降低;不同策略下飞机的生存力不同,基于MDP的策略可以有效提高飞机的生存力;单步优化措施不能提高战机的生存力,必须考虑长期状态转移的影响。 展开更多
关键词 飞机生存力 电子对抗措施(ECM) 战术机动 markov决策过程(mdp) 导弹对抗 序贯决策
原文传递
基于分层POMDP的智能轮椅行为控制方法 被引量:3
10
作者 陶永 王田苗 +1 位作者 魏洪兴 陈殿生 《高技术通讯》 CAS CSCD 北大核心 2010年第6期613-617,共5页
针对部分可观察马尔可夫决策过程(POMDP)模型在智能轮椅控制上的应用因模型参数难以确定而受到限制的问题,将POMDP模型决策过程中的动作空间分成一系列较小动作子集,进而提出了一种基于分层POMDP模型的智能轮椅行为控制方法。该方法综... 针对部分可观察马尔可夫决策过程(POMDP)模型在智能轮椅控制上的应用因模型参数难以确定而受到限制的问题,将POMDP模型决策过程中的动作空间分成一系列较小动作子集,进而提出了一种基于分层POMDP模型的智能轮椅行为控制方法。该方法综合了动作的不确定性和状态的部分可观测性,通过对环境的观测和信息的采集,得到不确定环境下的最优策略选择,进而选择相应的最优动作,从而提高了动作的执行效率。在室内家居环境下进行的交互任务与导航控制试验以及对实验结果进行的分析验证了这一方法的实时性、有效性和可靠性。 展开更多
关键词 智能轮椅 行为控制方法 分层的部分可观测马尔可夫决策过程(POmdp)模型
在线阅读 下载PDF
随机模型检测连续时间Markov过程 被引量:2
11
作者 钮俊 曾国荪 +1 位作者 吕新荣 徐畅 《计算机科学》 CSCD 北大核心 2011年第9期112-115,125,共5页
功能正确和性能可满足是复杂系统可信要求非常重要的两个方面。从定性验证和定量分析相结合的角度,对复杂并发系统进行功能验证和性能分析,统一地评估系统是否可信。连续时间Markov决策过程CTMDP(Continu-ous-time Markov decision proc... 功能正确和性能可满足是复杂系统可信要求非常重要的两个方面。从定性验证和定量分析相结合的角度,对复杂并发系统进行功能验证和性能分析,统一地评估系统是否可信。连续时间Markov决策过程CTMDP(Continu-ous-time Markov decision process)能够统一刻画复杂系统的概率选择、随机时间及不确定性等重要特征。提出用CT-MDP作为系统定性验证和定量分析模型,将复杂系统的功能验证和性能分析转化为CTMDP中的可达概率求解,并证明验证过程的正确性,最终借助模型检测器MRMC(Markov Reward Model Checker)实现模型检测。理论分析表明,提出的针对CTMDP模型的验证需求是必要的,验证思路和方法具有可行性。 展开更多
关键词 功能性能 连续时间markov决策过程 模型检测 可信验证 可达概率
在线阅读 下载PDF
半Markov决策过程折扣模型与平均模型之间的关系 被引量:1
12
作者 殷保群 李衍杰 +2 位作者 唐昊 代桂平 奚宏生 《控制理论与应用》 EI CAS CSCD 北大核心 2006年第1期65-68,共4页
首先分别在折扣代价与平均代价性能准则下,讨论了一类半M arkov决策问题.基于性能势方法,导出了由最优平稳策略所满足的最优性方程.然后讨论了两种模型之间的关系,表明了平均模型的有关结论,可以通过对折扣模型相应结论取折扣因子趋于... 首先分别在折扣代价与平均代价性能准则下,讨论了一类半M arkov决策问题.基于性能势方法,导出了由最优平稳策略所满足的最优性方程.然后讨论了两种模型之间的关系,表明了平均模型的有关结论,可以通过对折扣模型相应结论取折扣因子趋于零时的极限来得到. 展开更多
关键词 markov决策过程 折扣模型 平均模型 最优性方程 最优平稳策略
在线阅读 下载PDF
基于分时MDP的出租车载客预测推荐技术研究 被引量:3
13
作者 王桐 高山 +1 位作者 龚慧雯 孙博 《通信学报》 EI CSCD 北大核心 2021年第2期37-51,共15页
针对出租车盲目寻客导致空载率高的问题,提出了一种出租车载客热点推荐策略,以最大程度优化匹配乘客过程,提高寻客效率。基于出租车历史轨迹数据,结合热点乘客信息的时间序列特性,提出基于循环神经网络的分段预测(SPBR)算法,以及基于分... 针对出租车盲目寻客导致空载率高的问题,提出了一种出租车载客热点推荐策略,以最大程度优化匹配乘客过程,提高寻客效率。基于出租车历史轨迹数据,结合热点乘客信息的时间序列特性,提出基于循环神经网络的分段预测(SPBR)算法,以及基于分时马尔可夫决策过程(TMDP)的载客推荐模型。实验表明,SPBR算法预测结果的RMSE比SVR、CART和BPNN等算法分别降低了67.6%、71.1%和64.5%;TMDP模型出租车期望回报比历史期望提升了35.9%。 展开更多
关键词 出租车空载率 分时马尔可夫决策过程 热点预测 分段预测方法 载客推荐模型
在线阅读 下载PDF
基于Markov决策过程的驾驶员行为模型 被引量:3
14
作者 许骏 李一兵 《汽车工程》 EI CSCD 北大核心 2008年第1期14-16,60,共4页
将驾驶员-汽车看作统一的人机系统,利用驾驶员驾驶过程的本质是决策过程的性质,通过确定系统的决策时刻、决策报酬、状态转移速率和概率、抽象驾驶员的行为集合等建立了基于Markov决策过程的驾驶员行为模型,最后对所建模型进行了计算机... 将驾驶员-汽车看作统一的人机系统,利用驾驶员驾驶过程的本质是决策过程的性质,通过确定系统的决策时刻、决策报酬、状态转移速率和概率、抽象驾驶员的行为集合等建立了基于Markov决策过程的驾驶员行为模型,最后对所建模型进行了计算机仿真。 展开更多
关键词 驾驶员行为 markov决策过程 模型 人机系统
在线阅读 下载PDF
基于MDP和动态规划的医疗检查预约调度优化方法研究 被引量:13
15
作者 梁峰 徐苹 《运筹与管理》 CSSCI CSCD 北大核心 2020年第5期17-25,共9页
医疗检查对医生诊断病人病情具有重要作用。针对医疗检查资源的预约调度问题,考虑两台设备、三类病人且各类病人所需检查时间不同的情况。以医院在检查设备方面收益最大化为目标,建立有限时域马尔可夫决策(Markov decision process,MDP... 医疗检查对医生诊断病人病情具有重要作用。针对医疗检查资源的预约调度问题,考虑两台设备、三类病人且各类病人所需检查时间不同的情况。以医院在检查设备方面收益最大化为目标,建立有限时域马尔可夫决策(Markov decision process,MDP)模型,并结合动态规划理论,得出系统最优的预约排程策略。通过matlab仿真模拟医院的检查预约情况,并结合调研数据,实例验证了该预约策略相对于传统预约策略的优越性。最后,对设备的最大可用时间和住院病人的预约请求到达率模型进行敏感性分析,研究了预约策略的适用性。 展开更多
关键词 医疗检查 预约调度 马尔可夫决策过程 动态规划
在线阅读 下载PDF
非时齐部分可观察Markov决策规划的最优策略问题 被引量:1
16
作者 张继红 郭世贞 章芸 《运筹学学报》 CSCD 北大核心 2004年第2期81-87,共7页
本文讨论了一类非时齐部分可观察Markov决策模型.在不改变状态空间可列 性的条件下,把该模型转化为[5]中的一般化折扣模型,从而解决了其最优策略问题,并 且得到了该模型的有限阶段逼近算法,其中该算法涉及的状态是可列的.
关键词 部分可观察markov决策规划 最优策略 非时齐 折扣模型 逼近
在线阅读 下载PDF
基于FPOMDP的无线传感器网络动态调度算法 被引量:1
17
作者 冯延蓬 仵博 郑红燕 《计算机应用与软件》 CSCD 北大核心 2012年第8期55-58,77,共5页
针对无线传感器网络节点能量有限、数据采集易受环境影响的问题,提出一种基于可分解部分可观察Markov决策过程FPOMDP(Factored Partially Observable Markov Decision Process)的节点休眠调度算法。通过节点空时相关模型求取休眠节点数... 针对无线传感器网络节点能量有限、数据采集易受环境影响的问题,提出一种基于可分解部分可观察Markov决策过程FPOMDP(Factored Partially Observable Markov Decision Process)的节点休眠调度算法。通过节点空时相关模型求取休眠节点数据,利用网络数据准确性和节点能量间的条件独立关系,构造状态转移函数、观察函数和奖赏函数,采用值迭代求解算法求取最优策略,实现节点动态调度。仿真结果表明,该算法能够在保证数据准确性的前提下,有效降低节点能量消耗,延长网络生存时间。 展开更多
关键词 无线传感器网络 可分解部分可观察markov决策过程 空时相关模型
在线阅读 下载PDF
基于Markov决策过程的列控系统定量安全分析方法 被引量:1
18
作者 周果 赵会兵 《铁道学报》 EI CAS CSCD 北大核心 2016年第2期74-81,共8页
为了在列控系统的设计阶段和安全评估阶段对系统隐患进行把握,对系统的设计进行定量安全分析是至关重要的。定量分析的结果可以用来判断和比较设计的优劣,也可用来评估隐患的风险,并根据分析结果判断所采取的隐患控制措施是否使隐患的... 为了在列控系统的设计阶段和安全评估阶段对系统隐患进行把握,对系统的设计进行定量安全分析是至关重要的。定量分析的结果可以用来判断和比较设计的优劣,也可用来评估隐患的风险,并根据分析结果判断所采取的隐患控制措施是否使隐患的风险被控制在可接受的范围内。本文应用以Markov决策过程为基础的建模方法,对列控系统中的双车追踪场景进行系统行为建模,集成系统正常行为和失效行为,提出综合系统行为模型CBM,并通过概率模型检验工具PRISM对危险失效概率进行准确计算,提出列控系统定量安全分析方法。 展开更多
关键词 列控系统 定量安全分析 markov决策过程 概率模型检验
在线阅读 下载PDF
Markov决策过程在船舶结构维修中的应用 被引量:2
19
作者 江晓俐 《中国造船》 EI CSCD 北大核心 2005年第3期85-91,共7页
船舶腐蚀和疲劳是导致船体老化,进而使其逐渐丧失结构承载能力的重要原因。本文采用具有无后效性的Markov链来模拟船体结构老化过程,其状态空间由完好(不需要维修)、可见裂纹维修、油漆和阴极防护维修、腐蚀修理、疲劳裂纹修理、腐蚀疲... 船舶腐蚀和疲劳是导致船体老化,进而使其逐渐丧失结构承载能力的重要原因。本文采用具有无后效性的Markov链来模拟船体结构老化过程,其状态空间由完好(不需要维修)、可见裂纹维修、油漆和阴极防护维修、腐蚀修理、疲劳裂纹修理、腐蚀疲劳组合修理和完全失效共计七种状态组成。每一状态均可采取无修理、修理和更新三者之一的维修方案。通过迭代来获得最佳维修方案以实现单位时间成本最低的维修优化目标。算例表明,Markov链可以合理地模拟船舶结构的老化过程,并可方便快捷地运用于船舶维修经济论证。 展开更多
关键词 船舶 舰船工程 船舶维修 markov决策过程(mdp) 优化 单位时间成本 经济论证
在线阅读 下载PDF
一种MDP基于性能势的并行Q学习算法
20
作者 程文娟 唐昊 +1 位作者 李豹 周雷 《系统仿真学报》 CAS CSCD 北大核心 2009年第9期2670-2674,2678,共6页
在性能势理论框架内,研究折扣和平均准则马尔可夫决策过程(MDP)的统一并行Q学习算法。提出了独立并行Q学习算法和状态划分并行Q学习算法,重点讨论了算法中的关键参数的设计,即同步点如何选择的同步策略和如何合成Q因子的Q值构建策略,给... 在性能势理论框架内,研究折扣和平均准则马尔可夫决策过程(MDP)的统一并行Q学习算法。提出了独立并行Q学习算法和状态划分并行Q学习算法,重点讨论了算法中的关键参数的设计,即同步点如何选择的同步策略和如何合成Q因子的Q值构建策略,给出了一种固定步长结合一定偏移量的同步策略,并分析了并行中Q值构建策略的确定原则,给出了几种Q值构建策略的选择方法。仿真实验表明并行Q学习算法的有效性。 展开更多
关键词 Q学习 马尔可夫决策过程 性能势 并行算法
原文传递
上一页 1 2 10 下一页 到第
使用帮助 返回顶部