ORB-SLAM3(simultaneous localization and mapping)是当前最优秀的视觉SLAM算法之一,然而其基于静态环境的假设导致算法在高动态环境下精度不佳甚至定位失败。针对这一问题,提出一种结合光流和实例分割的动态特征点去除方法,以提高ORB-...ORB-SLAM3(simultaneous localization and mapping)是当前最优秀的视觉SLAM算法之一,然而其基于静态环境的假设导致算法在高动态环境下精度不佳甚至定位失败。针对这一问题,提出一种结合光流和实例分割的动态特征点去除方法,以提高ORB-SLAM3在高动态环境下的定位精度。并且在TUM数据集上进行了RGB-D相机模式和单目相机模式的实验,实验结果表明了该方法的有效性。展开更多
近年来,视觉同步定位与建图(simultaneous localization and mapping,SLAM)技术成为机器人和计算机视觉领域的研究热点。现有的主流算法通常只针对静态环境设计,当场景中出现动态物体时其算法的定位精准度和稳定性显著降低。本文提出一...近年来,视觉同步定位与建图(simultaneous localization and mapping,SLAM)技术成为机器人和计算机视觉领域的研究热点。现有的主流算法通常只针对静态环境设计,当场景中出现动态物体时其算法的定位精准度和稳定性显著降低。本文提出一种改进的ORB-SLAM3(oriented FAST and rotated BRIEF SLAM3)方法。首先,在跟踪线程中采用了轻量化的YOLOv4(you only look once version 4)目标检测网络,对图像金字塔中的每一层图像进行处理,识别并移除动态特征点,进而提升位姿估计的精确度;其次,融合惯性测量单元的积分数据,提取关键帧中的相机内外参数信息,将深度图转换为三维彩色点云,通过拼接形成完整的场景点云地图;最后,进行验证评价。结果表明:本方法在室内动态场景中能有效排除动态特征点,增强相机定位的精度与稳定性;在实际测试场景中,平均距离误差在1.5 cm以内,可成功构建无动态物体干扰的激光点云地图。展开更多
针对传统视觉SLAM(simultaneous localization and mapping)在动态环境下定位精度较低、稳健性较差、结合深度学习后实时性较差及无法构建稠密地图的问题,本文提出了一种基于ORB-SLAM3的改进算法。首先,采用轻量化SegFormer语义分割网络...针对传统视觉SLAM(simultaneous localization and mapping)在动态环境下定位精度较低、稳健性较差、结合深度学习后实时性较差及无法构建稠密地图的问题,本文提出了一种基于ORB-SLAM3的改进算法。首先,采用轻量化SegFormer语义分割网络,对图像中存在的动态物体进行识别后,添加掩膜图像自适应膨胀方法,根据特征点数自动调整掩膜膨胀范围,更有效地保留静态特征点及去除潜在动态特征点;然后,改进词袋模型,提升算法的加载和匹配速度;最后,添加稠密建图线程,根据掩膜信息和关键帧,构建去除动态特征后的稠密点云地图。试验结果表明,该算法在动态场景下能够有效地剔除动态物体特征点,提高了系统的定位精度和稳健性,平均处理速度为20帧/s,基本满足实时运行的要求。展开更多
移动机器人在使用单目视觉传感器进行同步定位与建图(simultaneous localization and mapping,SLAM)时,复杂环境中存在大量的光线变化或环境纹理稀疏情况,这是导致其定位不准确的主要因素。因此,文中对ORB-SLAM3系统中前端与定位环节进...移动机器人在使用单目视觉传感器进行同步定位与建图(simultaneous localization and mapping,SLAM)时,复杂环境中存在大量的光线变化或环境纹理稀疏情况,这是导致其定位不准确的主要因素。因此,文中对ORB-SLAM3系统中前端与定位环节进行改进,提升单目视觉移动机器人在复杂环境中的定位精度与鲁棒性。首先,提出区域动态特征概率阈值调整算法对SuperPoint网络进行改进,替换原ORB算法进行图像特征提取,从而获取鲁棒性更强且分布更均匀的视觉特征点;其次,提出共视匹配策略和动态窗口匹配策略,优化了视觉前端的特征匹配与跟踪算法,提升在稀疏纹理场景下的视觉跟踪性能;最后,结合所提改进算法与多传感器信息融合技术,构建了完整的定位系统框架,并在该系统上进行了单目视觉地面移动机器人定位实验。实验结果表明:改进后的算法在EuRoc数据集上的绝对轨迹误差相比ORB-SLAM3降低了8.6%;真实环境中,机器人绝对轨迹误差相比改进前降低了33.59%。展开更多
文摘ORB-SLAM3(simultaneous localization and mapping)是当前最优秀的视觉SLAM算法之一,然而其基于静态环境的假设导致算法在高动态环境下精度不佳甚至定位失败。针对这一问题,提出一种结合光流和实例分割的动态特征点去除方法,以提高ORB-SLAM3在高动态环境下的定位精度。并且在TUM数据集上进行了RGB-D相机模式和单目相机模式的实验,实验结果表明了该方法的有效性。
文摘近年来,视觉同步定位与建图(simultaneous localization and mapping,SLAM)技术成为机器人和计算机视觉领域的研究热点。现有的主流算法通常只针对静态环境设计,当场景中出现动态物体时其算法的定位精准度和稳定性显著降低。本文提出一种改进的ORB-SLAM3(oriented FAST and rotated BRIEF SLAM3)方法。首先,在跟踪线程中采用了轻量化的YOLOv4(you only look once version 4)目标检测网络,对图像金字塔中的每一层图像进行处理,识别并移除动态特征点,进而提升位姿估计的精确度;其次,融合惯性测量单元的积分数据,提取关键帧中的相机内外参数信息,将深度图转换为三维彩色点云,通过拼接形成完整的场景点云地图;最后,进行验证评价。结果表明:本方法在室内动态场景中能有效排除动态特征点,增强相机定位的精度与稳定性;在实际测试场景中,平均距离误差在1.5 cm以内,可成功构建无动态物体干扰的激光点云地图。
文摘针对传统视觉SLAM(simultaneous localization and mapping)在动态环境下定位精度较低、稳健性较差、结合深度学习后实时性较差及无法构建稠密地图的问题,本文提出了一种基于ORB-SLAM3的改进算法。首先,采用轻量化SegFormer语义分割网络,对图像中存在的动态物体进行识别后,添加掩膜图像自适应膨胀方法,根据特征点数自动调整掩膜膨胀范围,更有效地保留静态特征点及去除潜在动态特征点;然后,改进词袋模型,提升算法的加载和匹配速度;最后,添加稠密建图线程,根据掩膜信息和关键帧,构建去除动态特征后的稠密点云地图。试验结果表明,该算法在动态场景下能够有效地剔除动态物体特征点,提高了系统的定位精度和稳健性,平均处理速度为20帧/s,基本满足实时运行的要求。
文摘移动机器人在使用单目视觉传感器进行同步定位与建图(simultaneous localization and mapping,SLAM)时,复杂环境中存在大量的光线变化或环境纹理稀疏情况,这是导致其定位不准确的主要因素。因此,文中对ORB-SLAM3系统中前端与定位环节进行改进,提升单目视觉移动机器人在复杂环境中的定位精度与鲁棒性。首先,提出区域动态特征概率阈值调整算法对SuperPoint网络进行改进,替换原ORB算法进行图像特征提取,从而获取鲁棒性更强且分布更均匀的视觉特征点;其次,提出共视匹配策略和动态窗口匹配策略,优化了视觉前端的特征匹配与跟踪算法,提升在稀疏纹理场景下的视觉跟踪性能;最后,结合所提改进算法与多传感器信息融合技术,构建了完整的定位系统框架,并在该系统上进行了单目视觉地面移动机器人定位实验。实验结果表明:改进后的算法在EuRoc数据集上的绝对轨迹误差相比ORB-SLAM3降低了8.6%;真实环境中,机器人绝对轨迹误差相比改进前降低了33.59%。