近年来,深度学习技术在移动机器人同时定位与建图(Simultaneous localization and mapping,SLAM)领域取得了显著进展,为解决传统视觉SLAM在动态环境下面临的挑战提供了新的思路.本文首先总结了传统视觉SLAM在预处理、视觉里程计以及闭...近年来,深度学习技术在移动机器人同时定位与建图(Simultaneous localization and mapping,SLAM)领域取得了显著进展,为解决传统视觉SLAM在动态环境下面临的挑战提供了新的思路.本文首先总结了传统视觉SLAM在预处理、视觉里程计以及闭环检测模块的局限性.随后,聚焦于深度学习在视觉SLAM中的应用,重点介绍了基于深度学习的预处理、视觉里程计和闭环检测模块,以及其如何提升视觉SLAM的鲁棒性和精度.最后,探讨了基于深度学习SLAM面临的挑战并展望了未来研究方向,包括轻量化网络设计、场景的长期建模以及自监督学习等,以推动深度学习SLAM在实际应用中的落地.展开更多
针对动态场景下视觉SLAM(Simultaneous Localization and Mapping)系统中深度学习分割网络实时性不足,以及相机非期望运动导致位姿估计偏差的问题,提出一种基于跨域掩膜分割的视觉SLAM算法.该算法采用轻量化YOLO-fastest网络结合背景减...针对动态场景下视觉SLAM(Simultaneous Localization and Mapping)系统中深度学习分割网络实时性不足,以及相机非期望运动导致位姿估计偏差的问题,提出一种基于跨域掩膜分割的视觉SLAM算法.该算法采用轻量化YOLO-fastest网络结合背景减除法实现运动物体检测,利用深度图结合深度阈值分割构建跨域掩膜分割机制,并设计相机运动几何校正策略补偿检测框坐标误差,在实现运动物体分割的同时提升处理速度.为优化特征点利用率,采用金字塔光流对动态特征点进行帧间连续跟踪与更新,同时确保仅由静态特征点参与位姿估计过程.在TUM数据集上进行系统性评估,实验结果表明,相比于ORB-SLAM3算法,该算法的绝对位姿误差平均降幅达97.1%,与使用深度学习分割网络的DynaSLAM和DS-SLAM的动态SLAM算法相比,其单帧跟踪时间大幅减少,在精度与效率之间实现了更好的平衡.展开更多
针对弱纹理和变光照环境下基于点特征的视觉SLAM(simultaneous localization and mapping)算法轨迹漂移的问题,提出了一种基于改进自适应阈值ELSED算法(Adaptive-ELSED)的快速点线融合双目视觉SLAM算法。通过在ELSED算法中添加自适应阈...针对弱纹理和变光照环境下基于点特征的视觉SLAM(simultaneous localization and mapping)算法轨迹漂移的问题,提出了一种基于改进自适应阈值ELSED算法(Adaptive-ELSED)的快速点线融合双目视觉SLAM算法。通过在ELSED算法中添加自适应阈值矩阵,动态调整不同光照条件下梯度阈值,并使用长度抑制和短线合并策略,提高线特征的质量。利用基于双目几何约束和图像结构相似性(SSIM)进行快速线段特征三角化。基于历史位姿及误差分析获取初始位姿,通过自适应因子实现光束法平差过程中点线特征的更有效融合。实验结果表明,所提算法在提高线特征质量的同时,耗时仅为LSD算法的50%,线特征匹配速度较传统LBD算法提升67%,挑战性场景下轨迹误差较ORB-SLAM3降低62.2%,系统的平均跟踪帧率为27帧/s,在保证系统实时性的同时,显著提升了系统在弱纹理、变光照环境下的精度和鲁棒性。展开更多
视觉导航作为移动机器人自主运行的核心技术支撑,其性能直接决定移动机器人的环境感知精度、定位建图可靠性与路径规划的合理性。文章系统综述移动机器人视觉导航的研究进展,围绕视觉传感器、同步定位与地图构建(Simultaneous Localizat...视觉导航作为移动机器人自主运行的核心技术支撑,其性能直接决定移动机器人的环境感知精度、定位建图可靠性与路径规划的合理性。文章系统综述移动机器人视觉导航的研究进展,围绕视觉传感器、同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)和路径规划三大核心环节展开分析:在视觉传感器层面,重点探讨单模态、多模态融合视觉传感器和新型视觉传感器的技术特性与适配场景;在SLAM层面,总结传统几何SLAM、多模态融合SLAM以及神经隐式SLAM的技术演进与性能优势;在路径规划层面,重点介绍传统算法与生物启发算法的特点与适用场景。最后,总结当前技术面临的挑战,并对未来研究方向进行展望,为视觉导航技术的进一步发展提供参考。展开更多
针对传统开源的激光惯性里程计(LIO,lidar-inertial odometry)和即时定位与地图构建(SLAM,simultaneous localization and mapping)结合的LIO-SLAM在室内复杂环境中受激光特征稀疏与动态遮挡影响、定位精度下降等问题,提出一种融合视觉...针对传统开源的激光惯性里程计(LIO,lidar-inertial odometry)和即时定位与地图构建(SLAM,simultaneous localization and mapping)结合的LIO-SLAM在室内复杂环境中受激光特征稀疏与动态遮挡影响、定位精度下降等问题,提出一种融合视觉里程计的改进方法。在保持LIO-SLAM激光惯性紧耦合框架的基础上,引入基于ORB特征的三维定位与地图构建算法(ORB-SLAM)作为独立的视觉里程计模块,为系统提供高频率、丰富纹理的视觉约束信息。通过自适应权重融合策略,实现激光、惯性与视觉观测的多源优化,增强了在弱几何约束、纹理丰富但结构复杂环境中的鲁棒性。在多种典型室内场景(走廊、开放大厅及动态人群环境)中开展了实验验证。结果表明,相较于原始LIO-SLAM,整体轨迹误差降低至原始系统的70%。研究验证了视觉-激光-惯性多模态融合在室内复杂环境下的可行性与有效性,为高精度室内自主定位与地图构建提供了新的思路。展开更多
即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是一种重要的定位与地图构建技术。传统的视觉SLAM假设环境完全静止,但在动态场景中,SLAM识别的特征点很可能位于运动物体上,这会导致定位误差和地图不准确。为解决该问...即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是一种重要的定位与地图构建技术。传统的视觉SLAM假设环境完全静止,但在动态场景中,SLAM识别的特征点很可能位于运动物体上,这会导致定位误差和地图不准确。为解决该问题,提出了一种基于深度学习的视觉SLAM系统,利用嵌入MobileNetV3轻量化改进的YOLOv8模型识别运动物体,并将其范围内的特征点剔除,从而提高系统在动态场景下的鲁棒性、稳定性和追踪精度。实验结果表明,改进后的YOLOv8在计算速度上加快了5%以上,满足视觉SLAM系统的需求。最终,基于KITTI数据集00序列的实验结果显示,改进后的SLAM系统在动态场景下相较于ORB-SLAM2,轨迹精度提高了12.53%以上。展开更多
针对基于点线特征的实时定位与建图(simultaneous localization and mapping,SLAM)算法在位姿识别过程中对定位精度的要求,提出一种改进单目视觉惯性同步定位与建图(monocular visual-inertial SLAM with efficient point-line flow fea...针对基于点线特征的实时定位与建图(simultaneous localization and mapping,SLAM)算法在位姿识别过程中对定位精度的要求,提出一种改进单目视觉惯性同步定位与建图(monocular visual-inertial SLAM with efficient point-line flow features,EPLF-VINS)算法。首先,分析了梯度阈值参数对line segment detection by edge drawing(EDLines)线段提取算法的影响;其次,在点特征正向光流追踪后采用逆向光流追踪剔除错误追踪点,提高光流追踪正确率;然后,在EPLF-VINS算法的线段提取处融合一种自适应调节算法,通过计算逆向光流追踪后的点特征光流追踪成功率实时地调节梯度阈值参数,从而实现根据环境的变化动态调整线段提取,更好地平衡计算成本与定位精度的效果;最后,基于Robot Operating System(ROS)平台分析了改进EPLF-VINS算法与对比算法在EuRoc和TUM-VI数据集上的轨迹精度与效率。研究结果表明,改进EPLF-VINS算法绘制的轨迹曲线更加贴合真实轨迹,在保证实时性的同时具有更高的定位精度。展开更多
【目的】煤矿井下普遍存在低照度、弱纹理和结构化的特征退化场景,导致视觉SLAM(visual simultaneous localization and mapping)系统面临有效特征不足或误匹配率高的问题,严重制约了其定位的准确性和鲁棒性。【方法】提出一种基于边缘...【目的】煤矿井下普遍存在低照度、弱纹理和结构化的特征退化场景,导致视觉SLAM(visual simultaneous localization and mapping)系统面临有效特征不足或误匹配率高的问题,严重制约了其定位的准确性和鲁棒性。【方法】提出一种基于边缘感知增强的视觉SLAM方法。首先,构建了边缘感知约束的低光图像增强模块。通过自适应尺度的梯度域引导滤波器优化Retinex算法,以获得纹理清晰光照均匀的图像,从而显著提升了在低光照和不均匀光照条件下特征提取性能。其次,在视觉里程计中构建了边缘感知增强的特征提取和匹配模块,通过点线特征融合策略有效增强了弱纹理和结构化场景中特征的可检测性和匹配准确性。具体使用边缘绘制线特征提取算法(edge drawing lines,EDLines)提取线特征,定向FAST和旋转BRIEF点特征提取算法(oriented fast and rotated brief,ORB)提取点特征,并利用基于网格运动统计(grid-based motion statistics,GMS)和比值测试匹配算法进行精确匹配。最后,将该方法与ORB-SLAM2、ORB-SLAM3在TUM数据集和煤矿井下实景数据集上进行了全面实验验证,涵盖图像增强、特征匹配和定位等多个环节。【结果和结论】结果表明:(1)在TUM数据集上的测试结果显示,所提方法与ORB-SLAM2相比,绝对轨迹误差、相对轨迹误差的均方根误差分别降低了4%~38.46%、8.62%~50%;与ORB-SLAM3相比,绝对轨迹误差、相对轨迹误差的均方根误差分别降低了0~61.68%、3.63%~47.05%。(2)在煤矿井下实景实验中,所提方法的定位轨迹更接近于相机运动参考轨迹。(3)有效提高了视觉SLAM在煤矿井下特征退化场景中的准确性和鲁棒性,为视觉SLAM技术在煤矿井下的应用提供了技术解决方案。研究面向井下特征退化场景的视觉SLAM方法,对于推动煤矿井下移动式装备机器人化具有重要意义。展开更多
煤矿井下视觉同步定位与地图构建SLAM(Simultaneous Localization and Mapping)应用中,光照变化与低纹理场景严重影响特征点的提取和匹配结果,导致位姿估计失败,影响定位精度。提出一种基于改进定向快速旋转二值描述符ORB(Oriented Fast...煤矿井下视觉同步定位与地图构建SLAM(Simultaneous Localization and Mapping)应用中,光照变化与低纹理场景严重影响特征点的提取和匹配结果,导致位姿估计失败,影响定位精度。提出一种基于改进定向快速旋转二值描述符ORB(Oriented Fast and Rotated Brief)-SLAM3算法的煤矿井下移动机器人双目视觉定位算法SL-SLAM。针对光照变化场景,在前端使用光照稳定性的Super-Point特征点提取网络替换原始ORB特征点提取算法,并提出一种特征点网格限定法,有效剔除无效特征点区域,增加位姿估计稳定性。针对低纹理场景,在前端引入稳定的线段检测器LSD(Line Segment Detector)线特征提取算法,并提出一种点线联合算法,按照特征点网格对线特征进行分组,根据特征点的匹配结果进行线特征匹配,降低线特征匹配复杂度,节约位姿估计时间。构建了点特征和线特征的重投影误差模型,在线特征残差模型中添加角度约束,通过点特征和线特征的位姿增量雅可比矩阵建立点线特征重投影误差统一成本函数。局部建图线程使用ORB-SLAM3经典的局部优化方法调整点、线特征和关键帧位姿,并在后端线程中进行回环修正、子图融合和全局捆绑调整BA(Bundle Adjustment)。在EuRoC数据集上的试验结果表明,SL-SLAM的绝对位姿误差APE(Absolute Pose Error)指标优于其他对比算法,并取得了与真值最接近的轨迹预测结果:均方根误差相较于ORB-SLAM3降低了17.3%。在煤矿井下模拟场景中的试验结果表明,SL-SLAM能适应光照变化和低纹理场景,可以满足煤矿井下移动机器人的定位精度和稳定性要求。展开更多
为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and ma...为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and mapping,SLAM)。首先,在视觉特征点提取的基础上引入直方图均衡化,并利用激光雷达获取特征点深度信息,通过视觉特征跟踪以提升SLAM系统鲁棒性。其次,利用视觉关键帧信息对激光点云进行运动畸变校正,并将LeGO-LOAM(lightweight and groud-optimized lidar odometry and mapping)融入视觉ORBSLAM2(oriented FAST and rotated BRIEF SLAM2)以增强闭环检测与矫正性能,降低系统累计误差。最后,将视觉图像所获取的位姿进行坐标转换作为激光里程计的位姿初值,辅助激光雷达SLAM进行三维场景重建。实验结果表明:相比于传统的SLAM方法,融合后的LLV-SLAM方法平均定位时延减少了41.61%;在x、y、z方向上的平均定位误差分别减少了34.63%、38.16%、24.09%;在滚转角、俯仰角、偏航角方向上的平均旋转误差减少了40.8%、37.52%、39.5%。LLV-SLAM算法有效抑制了LeGO-LOAM算法的尺度漂移,实时性和鲁棒性有显著提升,能够满足自动驾驶车辆对多车道道路环境的感知需要。展开更多
文摘近年来,深度学习技术在移动机器人同时定位与建图(Simultaneous localization and mapping,SLAM)领域取得了显著进展,为解决传统视觉SLAM在动态环境下面临的挑战提供了新的思路.本文首先总结了传统视觉SLAM在预处理、视觉里程计以及闭环检测模块的局限性.随后,聚焦于深度学习在视觉SLAM中的应用,重点介绍了基于深度学习的预处理、视觉里程计和闭环检测模块,以及其如何提升视觉SLAM的鲁棒性和精度.最后,探讨了基于深度学习SLAM面临的挑战并展望了未来研究方向,包括轻量化网络设计、场景的长期建模以及自监督学习等,以推动深度学习SLAM在实际应用中的落地.
文摘针对动态场景下视觉SLAM(Simultaneous Localization and Mapping)系统中深度学习分割网络实时性不足,以及相机非期望运动导致位姿估计偏差的问题,提出一种基于跨域掩膜分割的视觉SLAM算法.该算法采用轻量化YOLO-fastest网络结合背景减除法实现运动物体检测,利用深度图结合深度阈值分割构建跨域掩膜分割机制,并设计相机运动几何校正策略补偿检测框坐标误差,在实现运动物体分割的同时提升处理速度.为优化特征点利用率,采用金字塔光流对动态特征点进行帧间连续跟踪与更新,同时确保仅由静态特征点参与位姿估计过程.在TUM数据集上进行系统性评估,实验结果表明,相比于ORB-SLAM3算法,该算法的绝对位姿误差平均降幅达97.1%,与使用深度学习分割网络的DynaSLAM和DS-SLAM的动态SLAM算法相比,其单帧跟踪时间大幅减少,在精度与效率之间实现了更好的平衡.
文摘针对弱纹理和变光照环境下基于点特征的视觉SLAM(simultaneous localization and mapping)算法轨迹漂移的问题,提出了一种基于改进自适应阈值ELSED算法(Adaptive-ELSED)的快速点线融合双目视觉SLAM算法。通过在ELSED算法中添加自适应阈值矩阵,动态调整不同光照条件下梯度阈值,并使用长度抑制和短线合并策略,提高线特征的质量。利用基于双目几何约束和图像结构相似性(SSIM)进行快速线段特征三角化。基于历史位姿及误差分析获取初始位姿,通过自适应因子实现光束法平差过程中点线特征的更有效融合。实验结果表明,所提算法在提高线特征质量的同时,耗时仅为LSD算法的50%,线特征匹配速度较传统LBD算法提升67%,挑战性场景下轨迹误差较ORB-SLAM3降低62.2%,系统的平均跟踪帧率为27帧/s,在保证系统实时性的同时,显著提升了系统在弱纹理、变光照环境下的精度和鲁棒性。
文摘视觉导航作为移动机器人自主运行的核心技术支撑,其性能直接决定移动机器人的环境感知精度、定位建图可靠性与路径规划的合理性。文章系统综述移动机器人视觉导航的研究进展,围绕视觉传感器、同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)和路径规划三大核心环节展开分析:在视觉传感器层面,重点探讨单模态、多模态融合视觉传感器和新型视觉传感器的技术特性与适配场景;在SLAM层面,总结传统几何SLAM、多模态融合SLAM以及神经隐式SLAM的技术演进与性能优势;在路径规划层面,重点介绍传统算法与生物启发算法的特点与适用场景。最后,总结当前技术面临的挑战,并对未来研究方向进行展望,为视觉导航技术的进一步发展提供参考。
文摘针对传统开源的激光惯性里程计(LIO,lidar-inertial odometry)和即时定位与地图构建(SLAM,simultaneous localization and mapping)结合的LIO-SLAM在室内复杂环境中受激光特征稀疏与动态遮挡影响、定位精度下降等问题,提出一种融合视觉里程计的改进方法。在保持LIO-SLAM激光惯性紧耦合框架的基础上,引入基于ORB特征的三维定位与地图构建算法(ORB-SLAM)作为独立的视觉里程计模块,为系统提供高频率、丰富纹理的视觉约束信息。通过自适应权重融合策略,实现激光、惯性与视觉观测的多源优化,增强了在弱几何约束、纹理丰富但结构复杂环境中的鲁棒性。在多种典型室内场景(走廊、开放大厅及动态人群环境)中开展了实验验证。结果表明,相较于原始LIO-SLAM,整体轨迹误差降低至原始系统的70%。研究验证了视觉-激光-惯性多模态融合在室内复杂环境下的可行性与有效性,为高精度室内自主定位与地图构建提供了新的思路。
文摘即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是一种重要的定位与地图构建技术。传统的视觉SLAM假设环境完全静止,但在动态场景中,SLAM识别的特征点很可能位于运动物体上,这会导致定位误差和地图不准确。为解决该问题,提出了一种基于深度学习的视觉SLAM系统,利用嵌入MobileNetV3轻量化改进的YOLOv8模型识别运动物体,并将其范围内的特征点剔除,从而提高系统在动态场景下的鲁棒性、稳定性和追踪精度。实验结果表明,改进后的YOLOv8在计算速度上加快了5%以上,满足视觉SLAM系统的需求。最终,基于KITTI数据集00序列的实验结果显示,改进后的SLAM系统在动态场景下相较于ORB-SLAM2,轨迹精度提高了12.53%以上。
文摘针对基于点线特征的实时定位与建图(simultaneous localization and mapping,SLAM)算法在位姿识别过程中对定位精度的要求,提出一种改进单目视觉惯性同步定位与建图(monocular visual-inertial SLAM with efficient point-line flow features,EPLF-VINS)算法。首先,分析了梯度阈值参数对line segment detection by edge drawing(EDLines)线段提取算法的影响;其次,在点特征正向光流追踪后采用逆向光流追踪剔除错误追踪点,提高光流追踪正确率;然后,在EPLF-VINS算法的线段提取处融合一种自适应调节算法,通过计算逆向光流追踪后的点特征光流追踪成功率实时地调节梯度阈值参数,从而实现根据环境的变化动态调整线段提取,更好地平衡计算成本与定位精度的效果;最后,基于Robot Operating System(ROS)平台分析了改进EPLF-VINS算法与对比算法在EuRoc和TUM-VI数据集上的轨迹精度与效率。研究结果表明,改进EPLF-VINS算法绘制的轨迹曲线更加贴合真实轨迹,在保证实时性的同时具有更高的定位精度。
文摘【目的】煤矿井下普遍存在低照度、弱纹理和结构化的特征退化场景,导致视觉SLAM(visual simultaneous localization and mapping)系统面临有效特征不足或误匹配率高的问题,严重制约了其定位的准确性和鲁棒性。【方法】提出一种基于边缘感知增强的视觉SLAM方法。首先,构建了边缘感知约束的低光图像增强模块。通过自适应尺度的梯度域引导滤波器优化Retinex算法,以获得纹理清晰光照均匀的图像,从而显著提升了在低光照和不均匀光照条件下特征提取性能。其次,在视觉里程计中构建了边缘感知增强的特征提取和匹配模块,通过点线特征融合策略有效增强了弱纹理和结构化场景中特征的可检测性和匹配准确性。具体使用边缘绘制线特征提取算法(edge drawing lines,EDLines)提取线特征,定向FAST和旋转BRIEF点特征提取算法(oriented fast and rotated brief,ORB)提取点特征,并利用基于网格运动统计(grid-based motion statistics,GMS)和比值测试匹配算法进行精确匹配。最后,将该方法与ORB-SLAM2、ORB-SLAM3在TUM数据集和煤矿井下实景数据集上进行了全面实验验证,涵盖图像增强、特征匹配和定位等多个环节。【结果和结论】结果表明:(1)在TUM数据集上的测试结果显示,所提方法与ORB-SLAM2相比,绝对轨迹误差、相对轨迹误差的均方根误差分别降低了4%~38.46%、8.62%~50%;与ORB-SLAM3相比,绝对轨迹误差、相对轨迹误差的均方根误差分别降低了0~61.68%、3.63%~47.05%。(2)在煤矿井下实景实验中,所提方法的定位轨迹更接近于相机运动参考轨迹。(3)有效提高了视觉SLAM在煤矿井下特征退化场景中的准确性和鲁棒性,为视觉SLAM技术在煤矿井下的应用提供了技术解决方案。研究面向井下特征退化场景的视觉SLAM方法,对于推动煤矿井下移动式装备机器人化具有重要意义。
文摘煤矿井下视觉同步定位与地图构建SLAM(Simultaneous Localization and Mapping)应用中,光照变化与低纹理场景严重影响特征点的提取和匹配结果,导致位姿估计失败,影响定位精度。提出一种基于改进定向快速旋转二值描述符ORB(Oriented Fast and Rotated Brief)-SLAM3算法的煤矿井下移动机器人双目视觉定位算法SL-SLAM。针对光照变化场景,在前端使用光照稳定性的Super-Point特征点提取网络替换原始ORB特征点提取算法,并提出一种特征点网格限定法,有效剔除无效特征点区域,增加位姿估计稳定性。针对低纹理场景,在前端引入稳定的线段检测器LSD(Line Segment Detector)线特征提取算法,并提出一种点线联合算法,按照特征点网格对线特征进行分组,根据特征点的匹配结果进行线特征匹配,降低线特征匹配复杂度,节约位姿估计时间。构建了点特征和线特征的重投影误差模型,在线特征残差模型中添加角度约束,通过点特征和线特征的位姿增量雅可比矩阵建立点线特征重投影误差统一成本函数。局部建图线程使用ORB-SLAM3经典的局部优化方法调整点、线特征和关键帧位姿,并在后端线程中进行回环修正、子图融合和全局捆绑调整BA(Bundle Adjustment)。在EuRoC数据集上的试验结果表明,SL-SLAM的绝对位姿误差APE(Absolute Pose Error)指标优于其他对比算法,并取得了与真值最接近的轨迹预测结果:均方根误差相较于ORB-SLAM3降低了17.3%。在煤矿井下模拟场景中的试验结果表明,SL-SLAM能适应光照变化和低纹理场景,可以满足煤矿井下移动机器人的定位精度和稳定性要求。
文摘为提升自动驾驶车辆在多车道行驶与作业时的道路环境感知能力,提出了自动驾驶环境下车道级雷视融合方法 LLV-SLAM(lane-level LiDAR-visual fusion SLAM),并构建了适用于雷视融合的实时定位与建图算法(simultaneous localization and mapping,SLAM)。首先,在视觉特征点提取的基础上引入直方图均衡化,并利用激光雷达获取特征点深度信息,通过视觉特征跟踪以提升SLAM系统鲁棒性。其次,利用视觉关键帧信息对激光点云进行运动畸变校正,并将LeGO-LOAM(lightweight and groud-optimized lidar odometry and mapping)融入视觉ORBSLAM2(oriented FAST and rotated BRIEF SLAM2)以增强闭环检测与矫正性能,降低系统累计误差。最后,将视觉图像所获取的位姿进行坐标转换作为激光里程计的位姿初值,辅助激光雷达SLAM进行三维场景重建。实验结果表明:相比于传统的SLAM方法,融合后的LLV-SLAM方法平均定位时延减少了41.61%;在x、y、z方向上的平均定位误差分别减少了34.63%、38.16%、24.09%;在滚转角、俯仰角、偏航角方向上的平均旋转误差减少了40.8%、37.52%、39.5%。LLV-SLAM算法有效抑制了LeGO-LOAM算法的尺度漂移,实时性和鲁棒性有显著提升,能够满足自动驾驶车辆对多车道道路环境的感知需要。