针对动态场景导致视觉定位与建图(simultaneous localization and mapping,SLAM)算法位姿估计精度低和地图质量差等问题,提出一种结合深度学习的动态视觉SLAM算法。该算法在ORB-SLAM3前端引入轻量化且目标识别率高的YOLO11n目标检测网络...针对动态场景导致视觉定位与建图(simultaneous localization and mapping,SLAM)算法位姿估计精度低和地图质量差等问题,提出一种结合深度学习的动态视觉SLAM算法。该算法在ORB-SLAM3前端引入轻量化且目标识别率高的YOLO11n目标检测网络,检测潜在动态区域,并结合Lucas-Kanade(LK)光流法识别其中的动态特征点,从而在剔除动态特征点的同时保留静态特征点,提高特征点利用率和位姿估计精度。此外,新增语义地图构建线程,通过去除YOLO11n识别到的动态物体点云,并融合前端提取的语义信息,实现静态语义地图的构建。在TUM数据集上的实验结果表明,相较于ORB-SLAM3,该算法在高动态序列数据集中的定位精度提升了95.02%,验证了该算法在动态环境下的有效性,能显著提升视觉SLAM系统的定位精度和地图构建质量。展开更多
针对动态物体严重干扰同时定位与建图(SLAM)系统正常运行的问题,提出一种基于目标检测和特征点关联的动态视觉SLAM算法。首先,利用YOLOv5目标检测网络得到环境中潜在动态物体的信息,并基于简易目标跟踪对图像漏检进行补偿;其次,为解决...针对动态物体严重干扰同时定位与建图(SLAM)系统正常运行的问题,提出一种基于目标检测和特征点关联的动态视觉SLAM算法。首先,利用YOLOv5目标检测网络得到环境中潜在动态物体的信息,并基于简易目标跟踪对图像漏检进行补偿;其次,为解决单一特征点的几何约束方法易出现误判的问题,依据图像的位置信息和光流信息建立特征点关联,再结合极线约束判断关系网的动态性;再次,结合两种方法剔除图像中的动态特征点,并用剩余的静态特征点加权估计位姿;最后,对静态环境建立稠密点云地图。在TUM(Technical University of Munich)公开数据集上的对比和消融实验的结果表明,与ORB-SLAM2和DS-SLAM(Dynamic Semantic SLAM)相比,所提算法在高动态场景下的绝对轨迹误差(ATE)中的均方根误差(RMSE)分别至少降低了95.22%和5.61%。可见,所提算法在保证实时性的同时提高了准确性和鲁棒性。展开更多
文摘针对动态场景导致视觉定位与建图(simultaneous localization and mapping,SLAM)算法位姿估计精度低和地图质量差等问题,提出一种结合深度学习的动态视觉SLAM算法。该算法在ORB-SLAM3前端引入轻量化且目标识别率高的YOLO11n目标检测网络,检测潜在动态区域,并结合Lucas-Kanade(LK)光流法识别其中的动态特征点,从而在剔除动态特征点的同时保留静态特征点,提高特征点利用率和位姿估计精度。此外,新增语义地图构建线程,通过去除YOLO11n识别到的动态物体点云,并融合前端提取的语义信息,实现静态语义地图的构建。在TUM数据集上的实验结果表明,相较于ORB-SLAM3,该算法在高动态序列数据集中的定位精度提升了95.02%,验证了该算法在动态环境下的有效性,能显著提升视觉SLAM系统的定位精度和地图构建质量。
文摘针对动态物体严重干扰同时定位与建图(SLAM)系统正常运行的问题,提出一种基于目标检测和特征点关联的动态视觉SLAM算法。首先,利用YOLOv5目标检测网络得到环境中潜在动态物体的信息,并基于简易目标跟踪对图像漏检进行补偿;其次,为解决单一特征点的几何约束方法易出现误判的问题,依据图像的位置信息和光流信息建立特征点关联,再结合极线约束判断关系网的动态性;再次,结合两种方法剔除图像中的动态特征点,并用剩余的静态特征点加权估计位姿;最后,对静态环境建立稠密点云地图。在TUM(Technical University of Munich)公开数据集上的对比和消融实验的结果表明,与ORB-SLAM2和DS-SLAM(Dynamic Semantic SLAM)相比,所提算法在高动态场景下的绝对轨迹误差(ATE)中的均方根误差(RMSE)分别至少降低了95.22%和5.61%。可见,所提算法在保证实时性的同时提高了准确性和鲁棒性。