期刊文献+
共找到382篇文章
< 1 2 20 >
每页显示 20 50 100
Day-ahead scheduling based on reinforcement learning with hybrid action space
1
作者 CAO Jingyu DONG Lu SUN Changyin 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2022年第3期693-705,共13页
Driven by the improvement of the smart grid,the active distribution network(ADN)has attracted much attention due to its characteristic of active management.By making full use of electricity price signals for optimal s... Driven by the improvement of the smart grid,the active distribution network(ADN)has attracted much attention due to its characteristic of active management.By making full use of electricity price signals for optimal scheduling,the total cost of the ADN can be reduced.However,the optimal dayahead scheduling problem is challenging since the future electricity price is unknown.Moreover,in ADN,some schedulable variables are continuous while some schedulable variables are discrete,which increases the difficulty of determining the optimal scheduling scheme.In this paper,the day-ahead scheduling problem of the ADN is formulated as a Markov decision process(MDP)with continuous-discrete hybrid action space.Then,an algorithm based on multi-agent hybrid reinforcement learning(HRL)is proposed to obtain the optimal scheduling scheme.The proposed algorithm adopts the structure of centralized training and decentralized execution,and different methods are applied to determine the selection policy of continuous scheduling variables and discrete scheduling variables.The simulation experiment results demonstrate the effectiveness of the algorithm. 展开更多
关键词 day-ahead scheduling active distribution network(ADN) reinforcement learning hybrid action space
在线阅读 下载PDF
Two-timescale Volt/var Control Based on Reinforcement Learning with Hybrid Action Space for Distribution Networks
2
作者 Yuan Zhou Yizhou Peng +3 位作者 Leijiao Ge Luyang Hou Ying Wang Hongxia Niu 《Journal of Modern Power Systems and Clean Energy》 2025年第4期1261-1273,共13页
In volt/var control(VVC)for active distribution networks,it is essential to integrate traditional voltage regulation devices with modern smart photovoltaic inverters to prevent voltage violations.However,model-based m... In volt/var control(VVC)for active distribution networks,it is essential to integrate traditional voltage regulation devices with modern smart photovoltaic inverters to prevent voltage violations.However,model-based multi-device VVC methods rely on accurate system models for decision-making,which can be challenging due to the extensive modeling workload.To tackle the complexities of multi-device cooperation in VVC,this paper proposes a two-timescale VVC method based on reinforcement learning with hybrid action space,termed the hybrid action representation twin delayed deep deterministic policy gradient(HAR-TD3)method.This method simultaneously manages traditional discrete voltage regulation devices,which operate on a slower timescale,and smart continuous voltage regulation devices,which function on a faster timescale.To enable effective collaboration between the different action spaces of these devices,we propose a variational auto-encoder based hybrid action reconstruction network.This network captures the interdependencies of hybrid actions by embedding both discrete and continuous actions into the latent representation space and subsequently decoding them for action reconstruction.The proposed method is validated on IEEE 33-bus,69-bus,and 123-bus distribution networks.Numerical results indicate that the proposed method successfully coordinates discrete and continuous voltage regulation devices,achieving fewer voltage violations compared with stateof-the-art reinforcement learning methods. 展开更多
关键词 Voltage/var control reinforcement learning hybrid action space two-timescale active distribution network
原文传递
Mixed Deep Reinforcement Learning Considering Discrete-continuous Hybrid Action Space for Smart Home Energy Management 被引量:5
3
作者 Chao Huang Hongcai Zhang +2 位作者 Long Wang Xiong Luo Yonghua Song 《Journal of Modern Power Systems and Clean Energy》 SCIE EI CSCD 2022年第3期743-754,共12页
This paper develops deep reinforcement learning(DRL)algorithms for optimizing the operation of home energy system which consists of photovoltaic(PV)panels,battery energy storage system,and household appliances.Model-f... This paper develops deep reinforcement learning(DRL)algorithms for optimizing the operation of home energy system which consists of photovoltaic(PV)panels,battery energy storage system,and household appliances.Model-free DRL algorithms can efficiently handle the difficulty of energy system modeling and uncertainty of PV generation.However,discretecontinuous hybrid action space of the considered home energy system challenges existing DRL algorithms for either discrete actions or continuous actions.Thus,a mixed deep reinforcement learning(MDRL)algorithm is proposed,which integrates deep Q-learning(DQL)algorithm and deep deterministic policy gradient(DDPG)algorithm.The DQL algorithm deals with discrete actions,while the DDPG algorithm handles continuous actions.The MDRL algorithm learns optimal strategy by trialand-error interactions with the environment.However,unsafe actions,which violate system constraints,can give rise to great cost.To handle such problem,a safe-MDRL algorithm is further proposed.Simulation studies demonstrate that the proposed MDRL algorithm can efficiently handle the challenge from discrete-continuous hybrid action space for home energy management.The proposed MDRL algorithm reduces the operation cost while maintaining the human thermal comfort by comparing with benchmark algorithms on the test dataset.Moreover,the safe-MDRL algorithm greatly reduces the loss of thermal comfort in the learning stage by the proposed MDRL algorithm. 展开更多
关键词 Demand response deep reinforcement learning discrete-continuous action space home energy management safe reinforcement learning
原文传递
基于DR-DT的视觉SLAM参数自适应调整
4
作者 黄鑫 黄初华 +2 位作者 杨明旭 秦进 马旭博 《计算机应用研究》 北大核心 2025年第11期3512-3520,共9页
针对传统视觉SLAM系统依赖固定参数且需手动调整的问题,提出了一种基于离散化奖励Decision Transformer的自适应参数调整方法——DR-DT。该方法将参数自适应过程转换为序列建模任务,通过选择SLAM关键参数定义连续动作空间,基于位姿不确... 针对传统视觉SLAM系统依赖固定参数且需手动调整的问题,提出了一种基于离散化奖励Decision Transformer的自适应参数调整方法——DR-DT。该方法将参数自适应过程转换为序列建模任务,通过选择SLAM关键参数定义连续动作空间,基于位姿不确定性构建奖励函数,结合离散化奖励机制提升学习稳定性。以ORB-SLAM3为测试系统,在EuRoC MAV和TUM-VI数据集上的实验结果表明,所提方法能有效提升视觉SLAM系统在复杂场景中的位姿估计精度,同时简化了参数调整过程。该方法为视觉SLAM系统的参数自适应优化提供了新思路。 展开更多
关键词 视觉SLAM 参数自适应 Decision Transformer 连续动作空间 离散化奖励
在线阅读 下载PDF
具身认知视野中的合作:对“何以必要”与“如何可能”的新认知 被引量:1
5
作者 郑旭东 王昕玮 《现代教育技术》 2025年第3期5-14,共10页
“合作”是教育领域的一个基本概念和范畴。合作的主体是人,对合作的科学理解必然建立在对人类认知进行把握的基础之上。文章从认知的具身观点出发,对合作“何以必要”与“如何可能”这两个基本问题进行了新探索;同时,对合作过程中“共... “合作”是教育领域的一个基本概念和范畴。合作的主体是人,对合作的科学理解必然建立在对人类认知进行把握的基础之上。文章从认知的具身观点出发,对合作“何以必要”与“如何可能”这两个基本问题进行了新探索;同时,对合作过程中“共同理解”和“共同行动”的心理机制做出了新解释,即学习者自身的内部前向模型之间发生碰撞后产生“共鸣”,以“共同理解”作为粘合剂形成联合行动空间,进而达成“共同行动”。在此基础上,文章基于认知的具身观点,结合维果茨基的社会历史文化观,探讨了技术作为工具中介在这一心理机制中的作用;同时,通过揭示合作过程中的双向建构,回答了“如何以技术的具身实现具身的合作与合作的具身”此问题,这为理解和实现在教育中以认知的具身观点为基础、通过技术的具身走向更好的合作提供了指南。 展开更多
关键词 具身认知 内部前向模型 联合行动空间 经典认知科学 工具中介
在线阅读 下载PDF
混合动作表示强化学习下的城市交叉口智慧信控方法
6
作者 王庞伟 王思淼 +3 位作者 雷方舒 徐京辉 王子鹏 王力 《交通运输系统工程与信息》 北大核心 2025年第4期73-83,共11页
针对城市交叉口环境下单一离散或连续信号控制动作难以充分应对交通流量时空变化,以及现有强化学习方法无法同时解决混合动作空间中的可扩展性和动作依赖性问题,本文提出一种基于混合动作表示强化学习的城市交叉口智慧信控方法。首先,... 针对城市交叉口环境下单一离散或连续信号控制动作难以充分应对交通流量时空变化,以及现有强化学习方法无法同时解决混合动作空间中的可扩展性和动作依赖性问题,本文提出一种基于混合动作表示强化学习的城市交叉口智慧信控方法。首先,将交叉口智能体的动作空间设置为离散化信号相位选择及其相对应的连续性绿灯持续时间,并进行状态空间与奖励函数的一致性设计;其次,应用离散动作嵌入表和条件变分自编码器构建连续可解码的表示空间,将原始混合动作策略学习问题转化为隐式动作表示空间中的连续策略学习问题;再次,使用近端策略优化方法进行隐式动作表示空间策略训练,并通过解码器将输出动作解码为原始混合动作,与环境进行实时交互;最后,基于北京市高级别自动驾驶示范区实际数据开展测试验证。通过不同时段对比测试结果表明,本文所提方法相比于最优基准模型平均延误时间、平均排队长度和平均停车次数分别降低了2.57%~14.84%,4.00%~9.15%和7.25%~20.69%,达到了良好的城市交叉口信控优化效果。 展开更多
关键词 智能交通 交通信号控制 表示学习 混合动作空间 近端策略优化
在线阅读 下载PDF
面向参数化动作空间的多智能体中心化策略梯度分解及其应用 被引量:2
7
作者 田树聪 谢愈 +2 位作者 张远龙 周正春 高阳 《软件学报》 北大核心 2025年第2期590-607,共18页
近年来,多智能体强化学习方法凭借AlphaStar、AlphaDogFight、AlphaMosaic等成功案例展示出卓越的决策能力以及广泛的应用前景.在真实环境的多智能体决策系统中,其任务的决策空间往往是同时具有离散型动作变量和连续型动作变量的参数化... 近年来,多智能体强化学习方法凭借AlphaStar、AlphaDogFight、AlphaMosaic等成功案例展示出卓越的决策能力以及广泛的应用前景.在真实环境的多智能体决策系统中,其任务的决策空间往往是同时具有离散型动作变量和连续型动作变量的参数化动作空间.这类动作空间的复杂性结构使得传统单一针对离散型或连续型的多智能体强化学习算法不在适用,因此研究能用于参数化动作空间的多智能体强化学习算法具有重要的现实意义.提出一种面向参数化动作空间的多智能体中心化策略梯度分解算法,利用中心化策略梯度分解算法保证多智能体的有效协同,结合参数化深度确定性策略梯度算法中双头策略输出实现对参数化动作空间的有效耦合.通过在Hybrid Predator-Prey场景中不同参数设置下的实验结果表明该算法在经典的多智能体参数化动作空间协作任务上具有良好的性能.此外,在多巡航导弹协同突防场景中进行算法效能验证,实验结果表明该算法在多巡航导弹突防这类具有高动态、行为复杂化的协同任务中有效性和可行性. 展开更多
关键词 参数化动作空间 多智能体强化学习 中心化策略梯度分解 多巡航导弹突防
在线阅读 下载PDF
飞行汽车多模态任务路径高效学习规划方法
8
作者 赵靖 杨超 +2 位作者 王伟达 李颖 项昌乐 《汽车工程》 北大核心 2025年第11期2070-2082,共13页
飞行汽车在城市交通、救援运输等领域备受关注。高效的多模态任务路径规划有效提高其在上述领域中的作业效率。为此,本文提出一种用于飞行汽车多模态任务路径规划的高效学习方法。首先,优化了飞行汽车的动作空间,保留起飞、降落及朝向... 飞行汽车在城市交通、救援运输等领域备受关注。高效的多模态任务路径规划有效提高其在上述领域中的作业效率。为此,本文提出一种用于飞行汽车多模态任务路径规划的高效学习方法。首先,优化了飞行汽车的动作空间,保留起飞、降落及朝向目标位置方向的动作,同时设计了一种针对非目标方向动作的概率选择机制。其次,考虑飞行汽车的空地协同特点,设计一种新型的Q-learning奖励函数,并提出一种针对历史最优路径经验的奖励增强机制。最后,提出一种路径平滑方法,获得一条光滑连续的空地协同任务路径。研究结果表明:所提方法规划的多模态路径依次比A*、Q-learning和D*Lite所规划的多模态路径减少了10.35、126.75和162.10 m的运行距离。在学习效率方面,所提方法比Q-learning缩短了45.97%的学习时间。 展开更多
关键词 飞行汽车 多模态任务路径规划 动作空间 奖励函数 路径平滑
在线阅读 下载PDF
SDWN中基于多智能体图强化学习的多对多通信路由方法
9
作者 文鹏 叶苗 +2 位作者 王勇 何倩 仇洪冰 《电子学报》 北大核心 2025年第6期1885-1905,共21页
多对多通信路由问题是NP(Nondeterministic Polynomial time)难的组合优化问题,构建出高效的多对多通信路由路径还需及时获取全局网络状态信息以适应网络状态高度动态变化的特点.本文在软件定义无线网络(Software-Defined Wireless Netw... 多对多通信路由问题是NP(Nondeterministic Polynomial time)难的组合优化问题,构建出高效的多对多通信路由路径还需及时获取全局网络状态信息以适应网络状态高度动态变化的特点.本文在软件定义无线网络(Software-Defined Wireless Networks,SDWN)场景中针对现有数据驱动的多智能体深度强化学习方法存在计算和部署成本高、难以适应非欧结构特点的网络拓扑的问题,并且训练过程中无效动作过多会增加存储空间和时间开销以及收敛速度慢,本文设计了一种SDN控制平面和数据平面进行协同感知与智能决策的新框架,并针对多对多通信路由问题设计了一种两阶段的多智能体路由方法(基于智能节点部署策略的多智能体图强化学习方法:MAGDS-M2M).为了降低在每个节点上都部署智能体所带来的计算和部署成本,设计了一种基于Q-学习的智能节点部署算法来确定需要部署智能体的网络节点;在完成多智能体部署后,在Actor-Critic(AC)框架下设计了一种基于多智能体图强化学习的多对多路由决策方法,基于图卷积网络(Graph Convolutional Networks,GCN)和图神经网络(Graph Neural Networks,GNN)重新设计Actor和Critic网络,解决了现有多智能体强化学习方法中卷积神经网络(Convolutional Neural Networks,CNN)对拓扑结构数据适应能力比较弱的问题;此外,为解决Actor网络固定长度的动作空间在训练过程中产生大量无效动作的问题,设计了一种新的动作空间局部观测方法.实验结果表明所提出的方法相比于基准实验降低了29.33%任务完成时延,并且验证了可以通过调节参数使任务完成的时延和各节点累计能耗标准差之间达到平衡.本文所做工作源代码已提交至开源平台https://github.com/GuetYe/MAGDS-M2M. 展开更多
关键词 多对多通信 智能节点部署 多智能体图强化学习 动作空间局部观测方法 软件定义无线网络
在线阅读 下载PDF
社区自我解压的策略与空间——以浙北D社区为例 被引量:1
10
作者 陈国强 《天津行政学院学报》 北大核心 2025年第2期50-60,共11页
在我国全面推进治理体系与治理能力现代化的过程中,出现了更多事务向社区下沉的现象。这使得原来社区“负担”过重的问题进一步凸显。相较于多年来主张为社区减负而不得的状况,社区却在这种局面下依然维持着有序运行。针对这一“反常”... 在我国全面推进治理体系与治理能力现代化的过程中,出现了更多事务向社区下沉的现象。这使得原来社区“负担”过重的问题进一步凸显。相较于多年来主张为社区减负而不得的状况,社区却在这种局面下依然维持着有序运行。针对这一“反常”现象,有必要对“社区压力过大”这一问题进行重新审视。从对浙北D社区的案例分析中发现,社区掌握着一套诸如“统筹开展”“压力转移”“罚不责众”等策略,使其较好化解了任务压力;但同时,这些行为的运作空间正在逼近极限,甚至一些社区已出现非常规、非规范的解决方式。这是社区表面有序运行下所发出的警示信号,需要引起更大的重视。 展开更多
关键词 社区 自我解压 社区治理 行动策略 行动空间
在线阅读 下载PDF
基于强化学习的灾区应急无人机网络服务公平性最大化方案
11
作者 李槐城 彭舰 +2 位作者 黄文 沈群力 廖思睿 《计算机应用研究》 北大核心 2025年第8期2452-2459,共8页
现有研究无人机灾区应急通信服务的方法在全局环境信息下优化网络性能,存在组网效率低和资源分配不均衡的问题,在灾区环境下难以维持平衡的通信服务,导致部分用户无法被及时救援。针对上述不足,提出并解决了无人机通信质量最大化问题:... 现有研究无人机灾区应急通信服务的方法在全局环境信息下优化网络性能,存在组网效率低和资源分配不均衡的问题,在灾区环境下难以维持平衡的通信服务,导致部分用户无法被及时救援。针对上述不足,提出并解决了无人机通信质量最大化问题:将问题建模为部分观测马尔可夫决策过程(partially observable Markov decision process,POMDP),设计基于深度强化学习的路径规划和资源分配方法,建立以网络吞吐量为服务质量指标,Jain’s公平性指数为均衡性准则的评估体系。设计基于目标解耦的奖励函数机制,构建参数化深度图强化学习网络,实现无人机轨迹规划与资源分配的联合优化。在16种不同条件的仿真环境下进行对比实验,该方法的性能优于其他四种方法,在公平性指标上较现有方法提升9.6%,并在不同指标上均验证了方法的有效性。 展开更多
关键词 无人机通信控制 公平性指数 深度强化学习 混合动作空间
在线阅读 下载PDF
基于动作空间扩展与奖励塑造的强化学习知识推理
12
作者 李鸿鹏 赵刚 《计算机工程与设计》 北大核心 2025年第7期1898-1904,共7页
为缓解知识图谱中数据稀疏导致推理路径缺失的问题,提出一种基于动作空间扩展和奖励塑造的强化学习知识推理方法。在知识表示模块,将知识图谱中的实体和关系映射到含有三元组语义和结构信息的向量空间中,建立强化学习环境;在强化学习模... 为缓解知识图谱中数据稀疏导致推理路径缺失的问题,提出一种基于动作空间扩展和奖励塑造的强化学习知识推理方法。在知识表示模块,将知识图谱中的实体和关系映射到含有三元组语义和结构信息的向量空间中,建立强化学习环境;在强化学习模块,提出一种动作空间扩展方法,通过引入先验知识,考虑实体间语义信息,寻找关联度最高的关系-实体作为头实体的扩充动作空间,提高路径的连通性。提出奖励塑造方法,设计路径长度奖励和路径重复负向奖励,鼓励智能体选择更加可靠和多样化的关系路径,进一步提升模型效果。实验结果表明,该模型在知识推理的链接预测和事实预测任务中,性能优于大部分现有模型。 展开更多
关键词 知识图谱 知识图谱推理 强化学习 知识表示 动作空间扩展 奖励塑造 K近邻算法
在线阅读 下载PDF
基于有效动作表示的策略搜索强化学习方法
13
作者 王馨雪 黄佳欣 +2 位作者 赵婷婷 陈亚瑞 王嫄 《天津科技大学学报》 2025年第5期57-65,共9页
策略搜索强化学习方法是深度强化学习领域的一种高效学习范式,但存在模型结构复杂、训练周期长、泛化能力差的问题。表示学习能在一定程度上缓解上述问题,但传统的表示学习方法的动作表示包含大量冗余或不相关的信息,缺乏可解释性,影响... 策略搜索强化学习方法是深度强化学习领域的一种高效学习范式,但存在模型结构复杂、训练周期长、泛化能力差的问题。表示学习能在一定程度上缓解上述问题,但传统的表示学习方法的动作表示包含大量冗余或不相关的信息,缺乏可解释性,影响系统的性能和泛化能力。本文提出了一种基于有效动作表示的策略搜索强化学习方法TAR-PPO(task-relevant action representation learning based PPO)。使用β-VAE作为学习动作表示的组件,引入回报预测模型辅助有效动作表示提取器的训练,帮助有效动作表示提取器提取到与任务相关的、更加有效的动作信息,增强了动作表示的可解释性,提高模型的性能和泛化能力。在MountainCar-v0环境中的对比实验结果表明,本文方法能够有效捕获与任务相关的动作信息,有利于动作空间的进一步探索,提升了策略学习性能。最后,通过消融实验验证了本文方法的显著优势。 展开更多
关键词 潜在空间 动作表示 连续动作空间 回报预测 有效动作表示提取器 策略搜索强化学习方法
在线阅读 下载PDF
一种信息作战行动空间概念建模方法
14
作者 肖野 潘毅佳 +2 位作者 何斌斌 郭恩泽 李德木 《火力与指挥控制》 北大核心 2025年第8期81-88,共8页
通过仿真实验设计具有战情复杂、策略多样和敌我博弈等特征的战术战法是一种常用手段。针对仿真实验建模存在作战域与仿真域界面不清晰、技术实现过程不精细等问题,提出一种信息作战行动空间概念建模方法。受博弈论行动空间分析思想的启... 通过仿真实验设计具有战情复杂、策略多样和敌我博弈等特征的战术战法是一种常用手段。针对仿真实验建模存在作战域与仿真域界面不清晰、技术实现过程不精细等问题,提出一种信息作战行动空间概念建模方法。受博弈论行动空间分析思想的启发,提出信息作战行动空间分析框架和建模基本流程,并且应用4种方法支撑概念建模过程工程化。所提方法对实战化和精细化开展战术战法设计具有较好的支撑作用。 展开更多
关键词 信息作战 行动空间 建模方法 作战仿真
在线阅读 下载PDF
基于强化学习的铁路列车运行图编制与优化研究综述
15
作者 陈昂扬 范家铭 +3 位作者 徐辉章 齐昕 李博 张新 《铁道运输与经济》 北大核心 2025年第11期36-51,共16页
列车运行图编制是铁路运输组织的核心决策问题,与强化学习中马尔可夫决策过程建模具有内在适配性。首先从理论层面论证强化学习应用于编图任务的可行性和优劣势,总结研究过程需要解决的组件设计、算法设计等关键问题;通过对既有文献进... 列车运行图编制是铁路运输组织的核心决策问题,与强化学习中马尔可夫决策过程建模具有内在适配性。首先从理论层面论证强化学习应用于编图任务的可行性和优劣势,总结研究过程需要解决的组件设计、算法设计等关键问题;通过对既有文献进行调研,认为目前研究仍处于探索阶段;在核心组件层面,归纳提出5类状态空间设计方式以及要素变更、过程控制、编图动作等动作空间设计方式,给出基于问题特性的神经网络模型和强化学习算法匹配推荐方案;在技术层面,分析目前面临的高维状态空间表征和多维组合空间探索等挑战和突破路径;最后从行业视角展望未来的技术趋势和发展方向,可为后续研究的建模方式、技术方案和行业落地提供系统性参考。 展开更多
关键词 列车运行图编制 强化学习 马尔可夫决策过程 状态空间 动作空间
在线阅读 下载PDF
基于深度强化学习的含储能船舶的海岛-海上渔排能源运输策略研究
16
作者 朱振山 陈豪 +1 位作者 陈炜龙 黄缨惠 《中国电机工程学报》 北大核心 2025年第7期2486-2499,I0004,共15页
针对海上渔排与风光资源富余岛屿能源交互问题,该文提出含全电力船舶(all-electricship,AES)的岛屿-海上渔排-海岸能源运输策略,利用能够很好处理海面风光不确定性问题以及适应较大规模能源转移模型的深度强化学习方法对上述能源运输模... 针对海上渔排与风光资源富余岛屿能源交互问题,该文提出含全电力船舶(all-electricship,AES)的岛屿-海上渔排-海岸能源运输策略,利用能够很好处理海面风光不确定性问题以及适应较大规模能源转移模型的深度强化学习方法对上述能源运输模型进行求解。首先,将移动式储能电池组细化为满充电池、空载电池以及不完全充电电池;其次,将上述能源运输问题建模为含混合动作空间的马尔可夫决策过程;考虑到针对混合动作空间问题,提出一种适用于混合动作空间的基于多批次前向传播的参数化双深度Q网络,该方法通过多步前向传递策略对不相关离散与连续动作进行解耦,减少了智能体训练过程中的波动性并能够收敛于更优的解;最后,通过算例仿真可知,所提策略能够有效实现各地点间能量转移,所提算法相较于传统适用于离散动作空间的深度强化学习方法更加灵活,在目标场景下能够实现更优运行。此外,在模型逐渐扩大的情况下,将该文方法与传统方法求解效果进行对比,验证所提方法在解决大规模能源运输问题的优势。 展开更多
关键词 深度强化学习 全电力船舶 移动式储能电池 混合动作空间
原文传递
数字经济发展能提升财政收入吗?
17
作者 刘明 陈晓彤 《湖南财政经济学院学报》 2025年第3期5-15,共11页
基于中国282个地级市面板数据,测度数字经济发展水平,并研究数字经济对财政收入的影响。研究表明:数字经济对财政收入存在显著的正向影响,经过检验这种驱动作用是稳健的;作用机制分析表明,数字经济通过促进产业结构优化从而提高财政收入... 基于中国282个地级市面板数据,测度数字经济发展水平,并研究数字经济对财政收入的影响。研究表明:数字经济对财政收入存在显著的正向影响,经过检验这种驱动作用是稳健的;作用机制分析表明,数字经济通过促进产业结构优化从而提高财政收入;数字经济对财政收入的影响呈现出明显的区域异质性,总体来看东部地区数字经济的作用效果最为显著;空间检验结果表明,数字经济会对周边省份财政收入产生正向影响。 展开更多
关键词 数字经济 财政收入 产业结构 作用机制 空间溢出
在线阅读 下载PDF
科学绿化、彩化与立体化——花园城市行动框架与营建路径探索
18
作者 李晓溪 李婷 郑曦 《风景园林》 北大核心 2025年第9期23-29,共7页
【目的】在高质量发展阶段,花园城市建设已成为实现人与自然和谐共生的重要抓手,但现阶段花园城市建设中仍存在空间权属不明确、治理主体碎片化、运营和维护机制不充分等现象。因此,探索以科学绿化、彩化与立体化(简称“三化”)为支撑... 【目的】在高质量发展阶段,花园城市建设已成为实现人与自然和谐共生的重要抓手,但现阶段花园城市建设中仍存在空间权属不明确、治理主体碎片化、运营和维护机制不充分等现象。因此,探索以科学绿化、彩化与立体化(简称“三化”)为支撑的花园城市行动框架与营建路径,对于推动花园城市建设落地见效意义重大。【方法/过程】系统梳理花园城市政策背景与实践需求,聚焦花园空间“在哪建、由谁建、怎么建”的核心问题,构建了花园城市“空间—主体—功能”行动框架,并围绕“三化”技术体系,从生态本底、城园共融、管理模式、共治机制4个方面提出了花园城市营建路径。【结果/结论】花园城市建设的关键在于转变工作思路、统筹空间改造与协调多元主体。花园城市建设应通过韧性宜居的生态本底筑牢、开放共享的城园融合推动、高效协同的管理模式完善、多元共建的共治机制创新等营建路径,推动多样化空间的花园化改造,为花园城市相关政策精准落地与高质量实施提供理论支撑和实践指导。 展开更多
关键词 风景园林 花园城市 绿色空间治理 科学绿化 行动框架 营建路径 北京
在线阅读 下载PDF
结构、情境、行动:乡村文化空间的结构与再造——以杭州市“富春山居”公共阅读空间为例
19
作者 贾思琪 王延隆 《安徽乡村振兴研究》 2025年第2期102-112,共11页
乡村文化空间是文化传承与社会凝聚的核心场域,对维系乡村的文化多样性和促进乡村振兴具有重要作用。以杭州市“富春山居”公共阅读空间为例,依托空间生产的理论基础,引入生计空间概念,采用“结构-情境-行动”框架研究乡村文化空间的结... 乡村文化空间是文化传承与社会凝聚的核心场域,对维系乡村的文化多样性和促进乡村振兴具有重要作用。以杭州市“富春山居”公共阅读空间为例,依托空间生产的理论基础,引入生计空间概念,采用“结构-情境-行动”框架研究乡村文化空间的结构与再造。研究表明,乡村文化空间再造离不开“物质-精神-社会-生计”的四维空间结构,通过“宜读-体验-宜居-宜业”的多层情境再现提升空间效能,探寻“一体化-赋能-认同-转化”的再造机制和多元空间行动策略。 展开更多
关键词 乡村文化空间 结构-情境-行动 公共阅读空间 公共文化
在线阅读 下载PDF
面向月球空间站的智能时序行为检测
20
作者 苗仕林 唐业鹏 +3 位作者 张淳杰 刘传凯 张济韬 曹建峰 《中国图象图形学报》 北大核心 2025年第9期3039-3049,共11页
目的随着全球太空经济加速发展,我国航天事业已进入深空探测、空间站常态化运营与地月资源开发的新阶段。航天员在复杂太空环境中的动作规范性直接影响任务安全与效率。然而,现有视频动作检测方法因依赖密集光流计算,存在高计算成本与... 目的随着全球太空经济加速发展,我国航天事业已进入深空探测、空间站常态化运营与地月资源开发的新阶段。航天员在复杂太空环境中的动作规范性直接影响任务安全与效率。然而,现有视频动作检测方法因依赖密集光流计算,存在高计算成本与实时性不足的瓶颈,难以满足航天任务中长时间、高精度动作监测的需求。方法为解决上述问题,提出一种高效时序动作检测框架,旨在通过稀疏光流表征与知识蒸馏技术,提升航天员训练与工作视频的动作检测效率,为太空任务中实时操作反馈、虚拟训练系统优化提供技术支持。本文方法采用稀疏光流表征,规避密集光流的高内存开销,缩短光流提取时间。通过从密集光流中蒸馏时空特征知识,弥补稀疏表征的信息损失,确保检测精度。结果该方法输入相对稀疏的光流,将光流计算耗时缩减至传统密集光流的1/4,总处理时间从132.1 h显著降低至32.5 h,有效规避了密集光流计算的高内存和计算成本。在检测精度方面,通过设计知识蒸馏机制,将平均精度均值从60.7%提升至61.5%,超越了基准模型的性能指标,验证了稀疏采样策略的计算效率优势与蒸馏网络在特征增强方面的有效性,实现了精度与效能的同步提升。结论本文为航天员动作检测提供了一种轻量化、高精度的解决方案,可实现快速高效动作定位,有助于实现太空情景下的高效航天员动作检测。 展开更多
关键词 动作检测 时序动作定位(TAD) 知识蒸馏 视频理解 太空任务安全监测
原文传递
上一页 1 2 20 下一页 到第
使用帮助 返回顶部