期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
基于有限状态机的车辆自动驾驶行为决策分析 被引量:14
1
作者 冀杰 黄岩军 +1 位作者 李云伍 吴飞 《汽车技术》 CSCD 北大核心 2018年第12期1-7,共7页
将智能车辆的自动驾驶运动过程分解为车道保持、车辆跟随、车道变换和制动避撞4种典型驾驶行为,基于有限状态机方法建立各驾驶行为间的逻辑关系及状态切换过程,同时,构建了面向自动驾驶的虚拟危险势能场,并对其结构关键参数和驾驶行为... 将智能车辆的自动驾驶运动过程分解为车道保持、车辆跟随、车道变换和制动避撞4种典型驾驶行为,基于有限状态机方法建立各驾驶行为间的逻辑关系及状态切换过程,同时,构建了面向自动驾驶的虚拟危险势能场,并对其结构关键参数和驾驶行为决策触发阈值进行分析。利用MATLAB/CarSim软件对不同道路工况下的自动驾驶行为决策过程进行联合仿真,并利用比例车辆模型和机器视觉系统对提出的方法进行试验验证。仿真和试验结果表明,虚拟危险势能场与有限状态机相结合的方法能够满足智能车辆的驾驶行为决策需求并实现主要的自动驾驶功能。 展开更多
关键词 智能车辆 自动驾驶 有限状态机 危险势能场 行为决策
在线阅读 下载PDF
基于遗传改进协调场的移动机器人避障策略 被引量:3
2
作者 张捍东 王丽华 岑豫皖 《系统仿真学报》 EI CAS CSCD 北大核心 2007年第24期5742-5746,共5页
针对在动态环境下移动机器人用传统人工势场法导航所存在的缺陷,在改进传统人工势场的基础上,引入协调向量,利用子目标点构建局部势场,并通过窗口滚动刷新子目标点实现全局优化,对运动过程中可能遇到的陷阱、抖动、实时避障等问题,提出... 针对在动态环境下移动机器人用传统人工势场法导航所存在的缺陷,在改进传统人工势场的基础上,引入协调向量,利用子目标点构建局部势场,并通过窗口滚动刷新子目标点实现全局优化,对运动过程中可能遇到的陷阱、抖动、实时避障等问题,提出了解决方案,最后利用自适应遗传算法对参数进行的多目标优化,经过仿真,证明了该策略的可行性和有效性。 展开更多
关键词 移动机器人 人工协调势场 实时避障 自适应遗传算法
在线阅读 下载PDF
Artificial Potential Field Incorporated Deep-Q-Network Algorithm for Mobile Robot Path Prediction 被引量:3
3
作者 A.Sivaranjani B.Vinod 《Intelligent Automation & Soft Computing》 SCIE 2023年第1期1135-1150,共16页
Autonomous navigation of mobile robots is a challenging task that requires them to travel from their initial position to their destination without collision in an environment.Reinforcement Learning methods enable a st... Autonomous navigation of mobile robots is a challenging task that requires them to travel from their initial position to their destination without collision in an environment.Reinforcement Learning methods enable a state action function in mobile robots suited to their environment.During trial-and-error interaction with its surroundings,it helps a robot tofind an ideal behavior on its own.The Deep Q Network(DQN)algorithm is used in TurtleBot 3(TB3)to achieve the goal by successfully avoiding the obstacles.But it requires a large number of training iterations.This research mainly focuses on a mobility robot’s best path prediction utilizing DQN and the Artificial Potential Field(APF)algorithms.First,a TB3 Waffle Pi DQN is built and trained to reach the goal.Then the APF shortest path algorithm is incorporated into the DQN algorithm.The proposed planning approach is compared with the standard DQN method in a virtual environment based on the Robot Operation System(ROS).The results from the simulation show that the combination is effective for DQN and APF gives a better optimal path and takes less time when compared to the conventional DQN algo-rithm.The performance improvement rate of the proposed DQN+APF in comparison with DQN in terms of the number of successful targets is attained by 88%.The performance of the proposed DQN+APF in comparison with DQN in terms of average time is achieved by 0.331 s.The performance of the proposed DQN+APF in comparison with DQN average rewards in which the positive goal is attained by 85%and the negative goal is attained by-90%. 展开更多
关键词 Artificial potentialfield deep reinforcement learning mobile robot turtle bot deep Q network path prediction
在线阅读 下载PDF
辽河油田龙湾筒凹陷油、水势场分析 被引量:1
4
作者 王建荣 《水文地质工程地质》 CAS CSCD 2000年第2期28-29,共2页
通过油、水势场分析,评价了辽河油田龙湾筒凹陷各主要层序的油、水运动和分布规律。
关键词 油田 势场 油气聚集 水势场 辽河油田 油气运移
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部