随着移动设备的数量及服务需求激增,边缘环境中有限的服务器资源使得部分用户的服务质量(Quality of Service,QoS)不能得到保障,且现有资源调度算法未充分考虑用户服务需求差异化。因此,提出了一种面向QoS的负载均衡资源调度算法(QoS-Aw...随着移动设备的数量及服务需求激增,边缘环境中有限的服务器资源使得部分用户的服务质量(Quality of Service,QoS)不能得到保障,且现有资源调度算法未充分考虑用户服务需求差异化。因此,提出了一种面向QoS的负载均衡资源调度算法(QoS-Aware Load Balancing Resource Scheduling algorithm,QALBRS)。首先,通过在协同过滤算法中引入多层感知器学习用户任务和服务器资源的高维非线性特征,并在输出层嵌入位置相似性特征,实现对任务所需资源的个性化分配。接着,为了在资源分配过程中平衡服务器负载并保证服务质量,采用改进的人工蜂群算法求解资源调度系统模型,将Q-Learning算法应用于食物源选择和搜索阶段,以提高算法搜索质量。实验证明,所提算法在保证服务质量和平衡服务器负载方面表现出较好的性能。展开更多
针对目前雷达干扰抑制决策智能化程度低的问题,提出了一种基于双深度优先经验回放和可变贪婪算法改进的双重竞争深度Q网络(double dueling deep Q network,D3QN)决策的雷达干扰抑制方法。首先对雷达目标回波和干扰混合信号进行特征提取...针对目前雷达干扰抑制决策智能化程度低的问题,提出了一种基于双深度优先经验回放和可变贪婪算法改进的双重竞争深度Q网络(double dueling deep Q network,D3QN)决策的雷达干扰抑制方法。首先对雷达目标回波和干扰混合信号进行特征提取;然后根据信号特征通过可变贪婪算法选择动作作用于干扰,并将动作前后的信号特征存储于双深度优先经验回放池后,经过学习决策出最优的干扰抑制策略;最后使用该策略抑制干扰后输出。实验结果表明,该方法有效改善了信号的脉压结果,显著提升了信号的信干噪比,相较于基于D3QN的传统干扰抑制方法,在策略准确率和收敛速度上分别提升了7.3%和8.7%。展开更多
文摘针对目前雷达干扰抑制决策智能化程度低的问题,提出了一种基于双深度优先经验回放和可变贪婪算法改进的双重竞争深度Q网络(double dueling deep Q network,D3QN)决策的雷达干扰抑制方法。首先对雷达目标回波和干扰混合信号进行特征提取;然后根据信号特征通过可变贪婪算法选择动作作用于干扰,并将动作前后的信号特征存储于双深度优先经验回放池后,经过学习决策出最优的干扰抑制策略;最后使用该策略抑制干扰后输出。实验结果表明,该方法有效改善了信号的脉压结果,显著提升了信号的信干噪比,相较于基于D3QN的传统干扰抑制方法,在策略准确率和收敛速度上分别提升了7.3%和8.7%。