期刊文献+
共找到54篇文章
< 1 2 3 >
每页显示 20 50 100
HDMapFusion:用于自动驾驶的多模态融合高清地图生成(特邀)
1
作者 刘洋宏 付杨悠然 董性平 《计算机工程》 北大核心 2025年第10期18-26,共9页
高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义... 高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义地图的生成精度。与传统直接融合原始传感器数据的方法不同,HDMapFusion创新性地将相机图像特征和激光雷达点云特征统一转换为鸟瞰视图(BEV)空间表示,在统一的几何坐标系下实现了多模态信息的物理可解释性融合。具体而言:HDMapFusion首先通过深度学习网络分别提取相机图像的视觉特征和激光雷达的三维(3D)结构特征;然后利用可微分的视角变换模块将前视图像特征转换为BEV空间表示,同时将激光雷达点云特征通过体素化处理投影到相同的BEV空间,在此基础上设计一个基于注意力机制的特征融合模块,自适应地加权整合两种模态;最后通过语义解码器生成包含车道线、人行横道、道路边界线等要素的高精度语义地图。在nuScenes自动驾驶数据集上的实验结果表明,HDMapFusion在高清地图生成精度方面显著优于现有基准方法。这些实验结果验证了HDMapFusion的有效性和优越性,为自动驾驶环境感知中的多模态融合问题提供了新的解决思路。 展开更多
关键词 高清地图生成 多模态融合 鸟瞰视图表示 自动驾驶 深度估计
在线阅读 下载PDF
Enhanced Autonomous Exploration and Mapping of an Unknown Environment with the Fusion of Dual RGB-D Sensors 被引量:7
2
作者 Ningbo Yu Shirong Wang 《Engineering》 SCIE EI 2019年第1期164-172,共9页
The autonomous exploration and mapping of an unknown environment is useful in a wide range of applications and thus holds great significance. Existing methods mostly use range sensors to generate twodimensional (2D) g... The autonomous exploration and mapping of an unknown environment is useful in a wide range of applications and thus holds great significance. Existing methods mostly use range sensors to generate twodimensional (2D) grid maps. Red/green/blue-depth (RGB-D) sensors provide both color and depth information on the environment, thereby enabling the generation of a three-dimensional (3D) point cloud map that is intuitive for human perception. In this paper, we present a systematic approach with dual RGB-D sensors to achieve the autonomous exploration and mapping of an unknown indoor environment. With the synchronized and processed RGB-D data, location points were generated and a 3D point cloud map and 2D grid map were incrementally built. Next, the exploration was modeled as a partially observable Markov decision process. Partial map simulation and global frontier search methods were combined for autonomous exploration, and dynamic action constraints were utilized in motion control. In this way, the local optimum can be avoided and the exploration efficacy can be ensured. Experiments with single connected and multi-branched regions demonstrated the high robustness, efficiency, and superiority of the developed system and methods. 展开更多
关键词 AUTONOMOUS EXPLORATION Red/green/blue-depth Sensor fusion Point cloud Partial map simulation Global FRONTIER search
在线阅读 下载PDF
面向自动驾驶的稀疏深度图补全方法SFN-D
3
作者 吴彬 赵海燕 +1 位作者 曹健 陈庆奎 《计算机应用研究》 北大核心 2025年第11期3476-3481,共6页
在自动驾驶领域,稀疏深度图的密集化是重要研究课题,对3D重建和3D目标检测等任务具有突出意义。提出一种新颖的深度补全框架SFN-D,该框架基于多模态数据融合和语义分割设计,利用多模态数据各自的优势来补充稀疏深度图中的缺失深度,从而... 在自动驾驶领域,稀疏深度图的密集化是重要研究课题,对3D重建和3D目标检测等任务具有突出意义。提出一种新颖的深度补全框架SFN-D,该框架基于多模态数据融合和语义分割设计,利用多模态数据各自的优势来补充稀疏深度图中的缺失深度,从而有效补充稀疏深度图。为了实现这一目标,采取一种借助传感器标定进行数据转换,从而实现多模态数据融合和深度图修正的方案。该框架融合了来自图像和激光雷达的特征图,可与现有任何优秀的点云语义分割网络和图片分割网络相适配,无需任何专家知识且能够开放性地实现稀疏深度图的深度补全。使用自动驾驶领域中广泛使用的KITTI depth compeletion数据集与相似深度补全方法评估了SFN-D,实验结果表明与其他深度补全方法相比,SFN-D有效且有更高的精度。 展开更多
关键词 深度补全 多模态融合 自动驾驶 稀疏深度图
在线阅读 下载PDF
基于多视角边缘检测融合的放射性物品运输容器特征提取
4
作者 张沛东 肖连博 +4 位作者 张煜航 焦力敏 孙洪超 庄大杰 李国强 《包装工程》 北大核心 2025年第11期294-302,共9页
目的针对放射性物品运输容器可靠性评估中存在的三维形变测量精度不足的瓶颈问题,提出一种融合多视角深度图投影与亚像素边缘检测的三维点云特征提取方法,以高精度几何特征数据支撑容器的结构优化设计与安全验证。方法首先,构建最小包... 目的针对放射性物品运输容器可靠性评估中存在的三维形变测量精度不足的瓶颈问题,提出一种融合多视角深度图投影与亚像素边缘检测的三维点云特征提取方法,以高精度几何特征数据支撑容器的结构优化设计与安全验证。方法首先,构建最小包围立方体,并设计六自由度多视角正交投影系统,将三维点云降维映射至二维深度图,实现容器全表面覆盖;其次,基于拟合边缘模型及局部灰度面积效应,检测亚像素边缘点;进一步结合投影参数化映射与动态曲率插值算法,引入法向量连续性约束及加权融合策略,重构高保真三维特征点;最后,搭建实验系统,获取容器三维点云数据,基于简化率、配准误差及计算时间指标,并与现有点云特征提取方法进行对比。结果采用所提方法获取特征点云,其配准最大平均误差为1.33 mm,最大均方根误差为1.39 mm,简化率为1.6%。与其他文献的结果相比,所提方法的简化率更小,计算时间更短,且误差更小。结论所提方法有效解决了大规模点云处理与几何特征保真之间的矛盾,显著提升了放射性容器三维特征提取的精度和效率,为核能工程安全评估提供了可靠的几何形变量化分析技术支撑。 展开更多
关键词 放射性物品运输容器 三维形变测量 多视角深度图融合 亚像素边缘检测
在线阅读 下载PDF
融合自适应采样与全局感知的图像深度估计算法
5
作者 王国相 李昌隆 +2 位作者 宋俊锋 叶振 金恒 《计算机工程与应用》 北大核心 2025年第5期261-268,共8页
深度估计旨在通过少量稀疏深度样本点预测场景的稠密深度图,现有方法通常直接从稀疏深度样本生成最终的深度预测图,没有充分挖掘稀疏深度图包含的几何信息,导致深度估计算法的预测精度不够高。针对上述问题,提出一种融合自适应采样与全... 深度估计旨在通过少量稀疏深度样本点预测场景的稠密深度图,现有方法通常直接从稀疏深度样本生成最终的深度预测图,没有充分挖掘稀疏深度图包含的几何信息,导致深度估计算法的预测精度不够高。针对上述问题,提出一种融合自适应采样与全局感知的图像深度估计算法,由粗粒度到细粒度逐步预测深度图。通过引入预训练的深度补全网络预测粗粒度的稠密深度图,获取丰富的场景结构信息和语义信息。设计自适应深度采样方法,引导算法模型对远处的区域施加更多关注,缓解深度数据的长尾分布问题。同时通过新设计的全局感知模块,捕获并融合多尺度特征,从而获取更多的场景上下文信息。在NYU-Depth-v2数据集上的实验结果表明,算法在整体性能上超越了其他方法;消融实验的结果验证了提出的各个模块的有效性;Zero-shot实验的结果表明算法有较好的泛化性能,其中在ScanNet数据集上的阈值精度指标δ<1.25相比P3D方法提升了42个百分点,相比S2D方法则提升了3.8个百分点。 展开更多
关键词 深度估计 深度补全 稠密深度图 多尺度特征融合 自适应采样
在线阅读 下载PDF
多传感器融合的无人车SLAM系统研究
6
作者 吴文昊 谷玉海 《重庆理工大学学报(自然科学)》 北大核心 2025年第1期229-235,共7页
为提高无人车的避障能力,使其能够在构建的地图环境中高效地进行自动定位和路径规划,提出一种多传感器融合的无人车SLAM系统。对于障碍物监测,采用激光雷达与深度相机信息融合的方法构建地图,以融合得到更精准的栅格图。搭建了履带式差... 为提高无人车的避障能力,使其能够在构建的地图环境中高效地进行自动定位和路径规划,提出一种多传感器融合的无人车SLAM系统。对于障碍物监测,采用激光雷达与深度相机信息融合的方法构建地图,以融合得到更精准的栅格图。搭建了履带式差速底盘运动学模型,通过融合IMU数据提高位姿估计精度;分析了贝叶斯推理方法,在决策层以该方法有效融合激光雷达与深度相机的数据;提出基于卡尔曼滤波算法动态调整权重将雷达与相机的后验概率融合,得到最终的地图栅格信息。最后,根据融合后的数据构建地图并实现自主导航的功能。通过对比实验发现,改进的多传感器融合建图算法定位精度综合提高了91.67%,实时的整体性能提升了54.46%,栅格建图完整性提升了6.59%。 展开更多
关键词 贝叶斯算法 融合建图 激光雷达 深度相机 ROS2
在线阅读 下载PDF
基于雾天模拟图像的能见度估计方法研究
7
作者 邱实卓 叶青 +1 位作者 黄佳恒 刘建平 《电光与控制》 北大核心 2025年第3期94-100,共7页
针对带有能见度标签的雾天图像数据集匮乏的问题,提出一种基于雾天模拟图像的能见度检测方法。通过无监督深度估计模型构建户外清晰图像的深度图,并且利用特征融合来细化深度图细节,采用暗通道法筛选天空区域估计大气光值,获得设定能见... 针对带有能见度标签的雾天图像数据集匮乏的问题,提出一种基于雾天模拟图像的能见度检测方法。通过无监督深度估计模型构建户外清晰图像的深度图,并且利用特征融合来细化深度图细节,采用暗通道法筛选天空区域估计大气光值,获得设定能见度下户外图像的透射率图,进一步获得带有不同能见度标签的雾天模拟图像数据集,基于此利用改进后的ShuffleNet V2网络训练能见度估计模型。对数据集和真实雾天图像进行了能见度等级估计的验证实验,实验结果表明,对能见度小于500 m的雾天图像具有良好的能见度估测结果,对小于200 m的检测准确率高于90%,总体准确率为87.8%,表明该方法具有可行性,可用于大雾条件下的道路能见度等级估测。 展开更多
关键词 雾天模拟 深度图 特征融合 ShuffleNet V2 能见度估计
在线阅读 下载PDF
改进几何约束的多特征视觉Manhattan-SLAM
8
作者 程鹏 王珂 +2 位作者 邓甘霖 李炎隆 李鹏 《导航定位学报》 北大核心 2025年第2期172-178,共7页
针对视觉跟踪过程中出现的低纹理场景,以及由于运动模糊等因素导致同时定位与建图(SLAM)系统对环境特征的识别和跟踪偏差较大,甚至失效的问题,设计一种点线面多特征融合跟踪方法:改进快速直线检测算法,显化隐藏参数并使其可调整;然后针... 针对视觉跟踪过程中出现的低纹理场景,以及由于运动模糊等因素导致同时定位与建图(SLAM)系统对环境特征的识别和跟踪偏差较大,甚至失效的问题,设计一种点线面多特征融合跟踪方法:改进快速直线检测算法,显化隐藏参数并使其可调整;然后针对短线特征进行筛选与合并,提高系统对环境信息的利用效率;最后在曼哈顿(Manhattan)世界假设中,提出一种结合几何与外观的线特征跟踪策略,利用线特征之间的几何关系建立约束优化匹配与跟踪,提高位姿估计的精度。实验结果表明,改进的特征跟踪方法相较于原算法在跟踪效率和整体定位精度方面都有明显提升,验证了该算法的有效性。 展开更多
关键词 多特征融合 视觉同时定位与建图(SLAM) 曼哈顿(Manhattan)假设 彩色-深度(RGB-D) 位姿估计
在线阅读 下载PDF
激光雷达点云球面投影与相机融合的环境语义分割算法
9
作者 杨涵 高骏 +6 位作者 刘勇 贺秀伟 檀利 殷艳坤 申晓雷 杨菲菲 彭成磊 《装备环境工程》 2025年第7期9-15,共7页
目的 融合激光雷达与相机的多模态信息,完成语义分割任务。方法 通过球面投影,将激光雷达三维点云转化为二维稀疏深度图,与相机图像实现像素级对齐。在神经网络模型中,设计非对称双分支编码器,使用稀疏卷积提取深度图特征,使用残差结构... 目的 融合激光雷达与相机的多模态信息,完成语义分割任务。方法 通过球面投影,将激光雷达三维点云转化为二维稀疏深度图,与相机图像实现像素级对齐。在神经网络模型中,设计非对称双分支编码器,使用稀疏卷积提取深度图特征,使用残差结构提取相机图像特征,2种模态的特征通过融合网络实现特征混合,得到融合图像。对融合图像使用基于跳跃连接的解码器解析特征,恢复分辨率并生成语义分割结果。结果 设计的算法有效提取和融合了2种模态的特征,降低了环境因素对单传感器的干扰,提高了语义分割的精确度和稳健性。算法在KITTI数据集上的mIoU指标达到了64.4%,较传统单模态环境语义分割算法提升了8.6%,且受光照影响更小。结论 相机的色彩纹理信息与激光雷达的精确深度信息具备信息维度互补能力,本文设计的多模态融合环境语义分割算法有效完成了环境语义分割任务,具备较高的精确度与稳健性。 展开更多
关键词 语义分割 环境感知 多模态感知 深度学习 特征融合 激光雷达 深度图
在线阅读 下载PDF
基于多视角深度图融合算法的火灾救援技能训练虚拟三维场景构建
10
作者 邹璇 冀卓 黄平利 《中国人民警察大学学报》 2025年第8期64-69,共6页
为向消防救援人员提供完整清晰的虚拟训练环境,基于几何特征深度图融合算法,设计一种火灾救援技能训练虚拟三维场景构建方法。采用Azure Kinect DK深度相机,获取多视角深度图;分析物体的距离和位置关系信息,设置几何特征约束条件,设计... 为向消防救援人员提供完整清晰的虚拟训练环境,基于几何特征深度图融合算法,设计一种火灾救援技能训练虚拟三维场景构建方法。采用Azure Kinect DK深度相机,获取多视角深度图;分析物体的距离和位置关系信息,设置几何特征约束条件,设计多视角深度图融合点确定算法;利用八叉树结构,整合与筛选深度图融合点,进行几何特征深度图融合;引入AKAZE算法,捕捉和呈现几何特征深度图融合点的关键特征位置和边缘信息;在非线性扩散三维空间中,聚合三维边缘信息,输出三维分布矩阵,构建火灾救援技能训练虚拟三维场景。实验结果表明,本方法可以准确测量场景中不同物体的深度信息,更好地保留火灾救援场景中的色彩、细节,构建的三维场景完整度和清晰度均较高。 展开更多
关键词 深度相机 多视角深度图融合 几何特征 三维重建
在线阅读 下载PDF
基于单目视觉SLAM的无人机视频实时建图框架
11
作者 孙一铭 张璐 +3 位作者 马腾飞 张海瑞 程傲楠 刘见礼 《测绘科学》 北大核心 2025年第5期167-176,共10页
针对在应急救灾和军事侦察等场景中,需要实时生成地图产品,传统基于运动恢复结构(SFM)的方法仅支持离线处理的问题,提出一种基于单目视觉SLAM的无人机视频实时建图框架。该框架能够实时处理无人机视频帧和GNSS/INS位姿数据,快速生成密... 针对在应急救灾和军事侦察等场景中,需要实时生成地图产品,传统基于运动恢复结构(SFM)的方法仅支持离线处理的问题,提出一种基于单目视觉SLAM的无人机视频实时建图框架。该框架能够实时处理无人机视频帧和GNSS/INS位姿数据,快速生成密集点云、数字表面模型(DSM)及数字正射影像图(DOM)。关键处理模块包括位姿解算、三维重建和地图生成。在3个不同样区的实地测试结果表明,生成的DSM的平均高程精度在2 m以内,DOM的平均平面精度在1 m以内,可以满足应急应用场景的精度需求。在效率方面,处理时间相对于飞行时间的平均延迟为4.66%,基本实现实时处理的目标。对比实验结果显示,本研究提出的框架在性能上优于先进的OpenREALM框架。 展开更多
关键词 视觉SLAM 无人机视频 位姿融合 深度图 密集点云 DSM DOM
原文传递
基于双向时空特征学习的人体深度图像估计
12
作者 朱子斌 李千林 +1 位作者 张小燕 韩双双 《计算机工程》 北大核心 2025年第10期258-269,共12页
为了更准确地预测人体的深度图像,提出一种基于视频的人体深度图像估计方法BiSTNet。为了从视频中充分挖掘三维(3D)信息,提出双向时空特征学习模型,分别从过去帧和未来帧2个序列方向学习双向时空特征,并利用双向时空特征注意力模型来强... 为了更准确地预测人体的深度图像,提出一种基于视频的人体深度图像估计方法BiSTNet。为了从视频中充分挖掘三维(3D)信息,提出双向时空特征学习模型,分别从过去帧和未来帧2个序列方向学习双向时空特征,并利用双向时空特征注意力模型来强化有效帧的影响。同时,引入多尺度特征融合预测模块,在有效融合双向时空特征和空间特征的基础上,预测精确的、具有丰富局部几何细节的深度图像,使得由预测深度图像重建的3D模型更加逼真。在模型训练过程中,使用人体关节相对顺序关系约束和双向序列自监督学习策略,在提高预测精度的同时降低对有监督数据的依赖性。实验结果表明,BiSTNet方法不仅能有效降低预测深度图像的误差,而且所预测的深度图像细节丰富。 展开更多
关键词 双向时空特征 多尺度特征融合 双向自监督 深度图像估计 人体关节相对顺序关系约束
在线阅读 下载PDF
基于深度图像融合的无人机测绘点云特征匹配与重建研究
13
作者 罗玉霜 《佳木斯大学学报(自然科学版)》 2025年第11期146-149,共4页
为了利用无人机测绘获取不同场景的具体数据,以对该场景进行监测,实验提出了一种基于深度图像融合的无人机测绘点云特征匹配与重建方法。利用深度学习与图像处理技术提取的数据点云之间进行精确匹配,以实现更为精确的场景三维模型重建... 为了利用无人机测绘获取不同场景的具体数据,以对该场景进行监测,实验提出了一种基于深度图像融合的无人机测绘点云特征匹配与重建方法。利用深度学习与图像处理技术提取的数据点云之间进行精确匹配,以实现更为精确的场景三维模型重建。结果显示,在训练集与验证集上,当图像数量达到第1654张与第746张时,深度图像融合算法的最优验证精度有最大值,分别为79.94%与82.30%;此外,所提方法对深度图像空洞邻域的填充效果更好。以上结果均说明所提方法在特征匹配的准确率和点云重建的质量上都有显著提升,能够为深度学习在遥感图像处理领域的应用提供有益的支持。 展开更多
关键词 无人机测绘 深度图像融合 点云 特征匹配 三维重建
在线阅读 下载PDF
基于激光雷达与相机融合的树干检测方法 被引量:7
14
作者 刘洋 冀杰 +3 位作者 赵立军 冯伟 贺庆 王小康 《西南大学学报(自然科学版)》 CSCD 北大核心 2024年第2期183-196,共14页
针对传统传感器在树干检测中的局限性和单一性,提出一种基于激光雷达与相机融合的树干检测方法.首先,利用深度图对激光雷达点云进行处理,实现地面点云去除以及树干点云聚类,并在聚类中设置横、纵向自适应阈值,去除聚类中墙体、杂草、树... 针对传统传感器在树干检测中的局限性和单一性,提出一种基于激光雷达与相机融合的树干检测方法.首先,利用深度图对激光雷达点云进行处理,实现地面点云去除以及树干点云聚类,并在聚类中设置横、纵向自适应阈值,去除聚类中墙体、杂草、树叶等多余信息;然后,利用YOLOv3算法对相机图像进行分析,基于树干特征实现目标识别并返回检测框与类别信息;最后,基于交并比方法(IoU)对2种传感器的检测结果进行融合,识别树干并返回其三维信息与位置信息.以无人割草机为载体开展场地测试,实验结果表明:融合算法的树干检测准确率在93.1%左右,树干定位横、纵向平均误差分别为0.075 m和0.078 m,能够满足无人割草机的树干检测要求,为智能农机的环境感知提供了一种新的方法. 展开更多
关键词 树干检测 激光雷达 相机 深度图 传感器融合
原文传递
基于锚点的快速三维手部关键点检测算法
15
作者 秦晓飞 何文 +2 位作者 班东贤 郭宏宇 于景 《电子科技》 2024年第4期77-86,共10页
在人机协作任务中,手部关键点检测为机械臂提供目标点坐标,A2J(Anchor-to-Joint)是具有代表性的一种利用锚点进行关键点检测的方法。A2J以深度图为输入,可实现较好的检测效果,但对全局特征获取能力不足。文中设计了全局-局部特征融合模... 在人机协作任务中,手部关键点检测为机械臂提供目标点坐标,A2J(Anchor-to-Joint)是具有代表性的一种利用锚点进行关键点检测的方法。A2J以深度图为输入,可实现较好的检测效果,但对全局特征获取能力不足。文中设计了全局-局部特征融合模块(Global-Local Feature Fusion,GLFF)对骨干网络浅层和深层的特征进行融合。为了提升检测速度,文中将A2J的骨干网络替换为ShuffleNetv2并对其进行改造,用5×5深度可分离卷积替换3×3深度可分离卷积,增大感受野,有效提升了骨干网络对全局特征的提取能力。文中在锚点权重估计分支引入高效通道注意力模块(Efficient Channel Attention,ECA),提升了网络对重要锚点的关注度。在主流数据集ICVL和NYU上进行的训练和测试结果表明,相比于A2J,文中所提方法的平均误差分别降低了0.09 mm和0.15 mm。在GTX1080Ti显卡上实现了151 frame·s^(-1)的检测速率,满足人机协作任务对于实时性的要求。 展开更多
关键词 人机协作 三维手部关键点检测 锚点 深度图 全局-局部特征融合 ShuffleNetv2 深度可分离卷积 高效通道注意力
在线阅读 下载PDF
融合摄食过程声像特征的鱼类摄食强度量化方法研究 被引量:2
16
作者 郑金存 叶章颖 +4 位作者 赵建 张慧 黄平 覃斌毅 庞毅 《海洋与湖沼》 CAS CSCD 北大核心 2024年第3期577-588,共12页
基于鱼类摄食行为反馈的精准投喂是确保饲料高效利用与降低水体污染的有效手段,针对当前单一传感器难以精确测量鱼群摄食强度的难题,提出一种基于摄食过程声像特征融合的鱼类摄食强度量化方法。首先利用深度图包含的三维空间信息分析水... 基于鱼类摄食行为反馈的精准投喂是确保饲料高效利用与降低水体污染的有效手段,针对当前单一传感器难以精确测量鱼群摄食强度的难题,提出一种基于摄食过程声像特征融合的鱼类摄食强度量化方法。首先利用深度图包含的三维空间信息分析水体表层摄食鱼类数量,设计基于帧间差分运算的深度图能量变化测量系统表征鱼群摄食活跃程度;进而利用近红外光源因水面反射而导致的高亮度饱和点在近红外图中的位置变化测量水体流场的波动程度;同时利用音轨记录仪存储摄食音频。最后通过加权融合方式,综合摄食动态、水体流场变化、摄食音频三类具有不同物理属性的特征信息,精确量化了鱼群摄食强度,总体识别精确度达到97%。本文采用新的成像技术,取得分析速度与分析精度的最佳平衡,为精准投喂提供了一种鲁棒性强、分析速度快的实用方法。 展开更多
关键词 鱼摄食强度 近红外图 深度图 摄食音频 加权融合
在线阅读 下载PDF
基于激光-视觉融合的配怀猪舍内导航建图技术研究
17
作者 潘梓博 周昕 +5 位作者 徐杏 刘凯歌 吉洪湖 路伏增 叶春林 周卫东 《浙江农业学报》 CSCD 北大核心 2024年第10期2358-2367,共10页
针对规模生猪养殖场猪舍内复杂设施环境下,现有的纯激光或纯视觉主流导航技术精度不够,影响移动智能装备作业效果的问题,研究建立了深度相机内参标定、激光雷达与深度相机数据融合的前端里程计、后端全面优化、回环检测和建图等方法,比... 针对规模生猪养殖场猪舍内复杂设施环境下,现有的纯激光或纯视觉主流导航技术精度不够,影响移动智能装备作业效果的问题,研究建立了深度相机内参标定、激光雷达与深度相机数据融合的前端里程计、后端全面优化、回环检测和建图等方法,比较研究了利用激光-视觉融合建图技术构建的配怀猪舍通道和走廊二维栅格地图和点云地图的效果。结果显示:融合建立的二维栅格地图较单激光雷达建图的信息量更多,能显示直观的点云图,较完整地展示实际场景中的道路信息与色彩信息,起点与终点坐标的相对误差范围分别为0.02%~0.33%、0.48%~1.62%,明显低于3种算法的激光建图,具有良好的精度和建图效率。 展开更多
关键词 激光雷达 深度相机 同步定位与地图构建 融合导航建图 猪舍
在线阅读 下载PDF
基于无需校准激光雷达曲线与RGB-D图像的数据融合方法
18
作者 徐正丽 肖素芳 杨明浩 《广西科学》 北大核心 2024年第5期1038-1048,共11页
激光雷达和RGB-D摄像机是在各种机器人导航任务中广泛使用的两种传感器。尽管通过图像校准能够降低传感器中存在的噪声,但由于外部复杂环境的影响,融合数据中仍会有空洞和毛刺。为此,本文提出一种无需校准激光雷达曲线与RGB-D图像的数... 激光雷达和RGB-D摄像机是在各种机器人导航任务中广泛使用的两种传感器。尽管通过图像校准能够降低传感器中存在的噪声,但由于外部复杂环境的影响,融合数据中仍会有空洞和毛刺。为此,本文提出一种无需校准激光雷达曲线与RGB-D图像的数据融合方法。该方法利用激光雷达曲线和RGB-D图像数据在格式上存在显著差异但在深度信息上紧密相对的特点,通过时间配准和相关性分析,将激光雷达曲线在高度上与RGB-D图像配准。同时,即使在不进行校准的情况下,该方法也能将RGB-D图像在高度上的相应线条自动配准到激光雷达曲线在宽度上的范围。使用室内开放式机器人导航数据集Robot@Home中的数据对本文方法进行评估,结果表明,该方法可同时为激光雷达曲线和RGB-D图像的原始数据去噪。该方法已在真实的导航环境中得到了验证,可扩展应用于机器人导航的更精确的二维地图构建中。 展开更多
关键词 激光雷达 深度图像 数据融合 二维地图重建 机器人导航
在线阅读 下载PDF
采用特征优化和引导的显著目标检测研究
19
作者 吴文介 王丰 《计算机工程与应用》 CSCD 北大核心 2024年第18期256-265,共10页
针对目前深度图存在对比度不明显和预测图边界模糊等问题,提出了一种新型显著目标检测网络模型。该模型包括特征优化模块和特征引导模块。为了降低低质量深度图的负面影响,并精确地突出显著目标,在特征优化模块对深度图的各层特征进行... 针对目前深度图存在对比度不明显和预测图边界模糊等问题,提出了一种新型显著目标检测网络模型。该模型包括特征优化模块和特征引导模块。为了降低低质量深度图的负面影响,并精确地突出显著目标,在特征优化模块对深度图的各层特征进行混合注意力计算并进行双向融合。为解决边界模糊问题,在特征引导模块利用引导融合的方式引入低层特征来精细化目标边界。在解码阶段,引入不增加模型参数的权值计算方法,计算RGB特征和深度特征对最终预测的贡献比重。通过与近年来十二种先进方法进行的对比实验表明,所提算法模型在NJU2K、NLPR、DES、SIP、STERE和LFSD测试数据集上具有更优秀的检测性能,其中在SIP数据集上,提出的模型与第二名相比,最大F值提升了1.3%,平均F值提升了1%,E-measure提升了1.7%,S-measure提升了1.5%,消融实验证明了所提模块的有效性。 展开更多
关键词 深度图 显著目标检测 混合注意力 特征融合
在线阅读 下载PDF
多线索非参数化融合的单目视频深度估计 被引量:2
20
作者 刘天亮 莫一鸣 +3 位作者 徐高帮 戴修斌 朱秀昌 罗杰波 《东南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2015年第5期834-839,共6页
为解决二维视频的三维转化问题,提出了一种基于非参数化学习和多线索融合的单目视频深度图提取方法.首先,利用单目图像的区域边界轮廓和几何透视结构线索,基于前景背景融合来估计单目视频中各帧的深度图像;然后,利用视频帧间空时相关性... 为解决二维视频的三维转化问题,提出了一种基于非参数化学习和多线索融合的单目视频深度图提取方法.首先,利用单目图像的区域边界轮廓和几何透视结构线索,基于前景背景融合来估计单目视频中各帧的深度图像;然后,利用视频帧间空时相关性,借助非参数学习实现单目视频深度估计;最后,利用全局背景深度分段约束和去抖动来增强深度视频序列.实验结果表明,与其他现有方法相比,该方法能得到更为准确的单目视频深度图序列,无论在主观质量还是均方根误差(RMS)和结构相似性度量(SSIM)上,均能取得较好的效果. 展开更多
关键词 深度图 非参数化融合 多线索 线性透视 空时相关
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部