针对基于静态场景特征进行相机位姿估计的即时定位与地图构建(SLAM:Simultaneous Localization and Mapping)技术,在其前端的特征计算和匹配的过程中易受到动态物体干扰的问题,提出了实例分割结合多视几何约束的方法,以改进视觉SLAM的...针对基于静态场景特征进行相机位姿估计的即时定位与地图构建(SLAM:Simultaneous Localization and Mapping)技术,在其前端的特征计算和匹配的过程中易受到动态物体干扰的问题,提出了实例分割结合多视几何约束的方法,以改进视觉SLAM的前端特征处理,剔除动态信息的干扰。在ORB-SLAM3(Oriented FAST and Rotated BRIEF-Simultaneous Localization and Mapping3)框架的前端,并行YOLACT++(You Only Look At CoefficienTs++)实例分割线程,将分割后的结果使用多视几何约束的方法补充检验特征点动态一致性;运用EfficientNetV2网络替换YOLACT++原来的主干网络,并使用TensorRT量化实例分割模型,以减轻算法的前端计算压力。经TUM(Technical University of Munich)数据集测试结果表明,该算法在高动态环境下的定位精度较ORB-SLAM3算法平均提升了80.6%。展开更多
传统的同步定位与制图(Simultaneous localization and mapping,SLAM)系统在复杂环境下工作时,无法分辨环境中的物体是否存在运动状态,图像中运动的物体可能导致特征关联错误,引起定位的不准确和地图构建的偏差。为了提高SLAM系统在动...传统的同步定位与制图(Simultaneous localization and mapping,SLAM)系统在复杂环境下工作时,无法分辨环境中的物体是否存在运动状态,图像中运动的物体可能导致特征关联错误,引起定位的不准确和地图构建的偏差。为了提高SLAM系统在动态环境下的鲁棒性和可靠性,本文提出了一种顾及动态物体感知的增强型视觉SLAM系统。首先,使用深度学习网络对每一帧图像的动态物体进行初始检测,然后使用多视图几何方法更加精细地判断目标检测无法确定的动态物体区域。通过剔除属于动态物体上的特征跟踪点,提高系统的鲁棒性。本文方法在公共数据集TUM和KITTI上进行了测试,结果表明在动态场景中定位结果的准确度有了明显提升,尤其在高动态序列中相对于原始算法的精度提升在92%以上。与其他顾及动态场景的SLAM系统相比,本文方法在保持精度优势的同时,提高了运行结果的稳定性和时间效率。展开更多
文摘针对基于静态场景特征进行相机位姿估计的即时定位与地图构建(SLAM:Simultaneous Localization and Mapping)技术,在其前端的特征计算和匹配的过程中易受到动态物体干扰的问题,提出了实例分割结合多视几何约束的方法,以改进视觉SLAM的前端特征处理,剔除动态信息的干扰。在ORB-SLAM3(Oriented FAST and Rotated BRIEF-Simultaneous Localization and Mapping3)框架的前端,并行YOLACT++(You Only Look At CoefficienTs++)实例分割线程,将分割后的结果使用多视几何约束的方法补充检验特征点动态一致性;运用EfficientNetV2网络替换YOLACT++原来的主干网络,并使用TensorRT量化实例分割模型,以减轻算法的前端计算压力。经TUM(Technical University of Munich)数据集测试结果表明,该算法在高动态环境下的定位精度较ORB-SLAM3算法平均提升了80.6%。
文摘传统的同步定位与制图(Simultaneous localization and mapping,SLAM)系统在复杂环境下工作时,无法分辨环境中的物体是否存在运动状态,图像中运动的物体可能导致特征关联错误,引起定位的不准确和地图构建的偏差。为了提高SLAM系统在动态环境下的鲁棒性和可靠性,本文提出了一种顾及动态物体感知的增强型视觉SLAM系统。首先,使用深度学习网络对每一帧图像的动态物体进行初始检测,然后使用多视图几何方法更加精细地判断目标检测无法确定的动态物体区域。通过剔除属于动态物体上的特征跟踪点,提高系统的鲁棒性。本文方法在公共数据集TUM和KITTI上进行了测试,结果表明在动态场景中定位结果的准确度有了明显提升,尤其在高动态序列中相对于原始算法的精度提升在92%以上。与其他顾及动态场景的SLAM系统相比,本文方法在保持精度优势的同时,提高了运行结果的稳定性和时间效率。