期刊文献+
共找到55篇文章
< 1 2 3 >
每页显示 20 50 100
HDMapFusion:用于自动驾驶的多模态融合高清地图生成(特邀)
1
作者 刘洋宏 付杨悠然 董性平 《计算机工程》 北大核心 2025年第10期18-26,共9页
高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义... 高清环境语义地图的生成是自动驾驶系统实现环境感知与决策规划不可或缺的关键技术。针对当前自动驾驶领域相机与激光雷达在感知任务中存在的模态差异问题,提出一种创新的多模态融合范式HDMapFusion,通过特征级融合策略显著提升了语义地图的生成精度。与传统直接融合原始传感器数据的方法不同,HDMapFusion创新性地将相机图像特征和激光雷达点云特征统一转换为鸟瞰视图(BEV)空间表示,在统一的几何坐标系下实现了多模态信息的物理可解释性融合。具体而言:HDMapFusion首先通过深度学习网络分别提取相机图像的视觉特征和激光雷达的三维(3D)结构特征;然后利用可微分的视角变换模块将前视图像特征转换为BEV空间表示,同时将激光雷达点云特征通过体素化处理投影到相同的BEV空间,在此基础上设计一个基于注意力机制的特征融合模块,自适应地加权整合两种模态;最后通过语义解码器生成包含车道线、人行横道、道路边界线等要素的高精度语义地图。在nuScenes自动驾驶数据集上的实验结果表明,HDMapFusion在高清地图生成精度方面显著优于现有基准方法。这些实验结果验证了HDMapFusion的有效性和优越性,为自动驾驶环境感知中的多模态融合问题提供了新的解决思路。 展开更多
关键词 高清地图生成 多模态融合 鸟瞰视图表示 自动驾驶 深度估计
在线阅读 下载PDF
Enhanced Autonomous Exploration and Mapping of an Unknown Environment with the Fusion of Dual RGB-D Sensors 被引量:7
2
作者 Ningbo Yu Shirong Wang 《Engineering》 SCIE EI 2019年第1期164-172,共9页
The autonomous exploration and mapping of an unknown environment is useful in a wide range of applications and thus holds great significance. Existing methods mostly use range sensors to generate twodimensional (2D) g... The autonomous exploration and mapping of an unknown environment is useful in a wide range of applications and thus holds great significance. Existing methods mostly use range sensors to generate twodimensional (2D) grid maps. Red/green/blue-depth (RGB-D) sensors provide both color and depth information on the environment, thereby enabling the generation of a three-dimensional (3D) point cloud map that is intuitive for human perception. In this paper, we present a systematic approach with dual RGB-D sensors to achieve the autonomous exploration and mapping of an unknown indoor environment. With the synchronized and processed RGB-D data, location points were generated and a 3D point cloud map and 2D grid map were incrementally built. Next, the exploration was modeled as a partially observable Markov decision process. Partial map simulation and global frontier search methods were combined for autonomous exploration, and dynamic action constraints were utilized in motion control. In this way, the local optimum can be avoided and the exploration efficacy can be ensured. Experiments with single connected and multi-branched regions demonstrated the high robustness, efficiency, and superiority of the developed system and methods. 展开更多
关键词 AUTONOMOUS EXPLORATION Red/green/blue-depth Sensor fusion Point cloud Partial map simulation Global FRONTIER search
在线阅读 下载PDF
内窥镜视频关键帧获取及三维重建方法研究
3
作者 薛怀琦 王双园 +1 位作者 张玉荣 姚志远 《重庆工商大学学报(自然科学版)》 2026年第1期55-63,共9页
目的鉴于内窥镜在获取人体内部图像时所面临的数量和质量限制,提出一种新的高清晰度内窥镜视频帧抽取策略三维重建方法。方法首先,采用基于结构相似性指数(SSIM)和Laplace算子复合方法筛选和提取具有高清晰度和低噪声的关键帧;然后,利... 目的鉴于内窥镜在获取人体内部图像时所面临的数量和质量限制,提出一种新的高清晰度内窥镜视频帧抽取策略三维重建方法。方法首先,采用基于结构相似性指数(SSIM)和Laplace算子复合方法筛选和提取具有高清晰度和低噪声的关键帧;然后,利用基于Neighbor2Neighbor深度学习方法对初步的关键帧队列进行处理,减少图像中的噪声并增强其质量,并利用COLMAP增量式SFM技术将优质关键帧转化为稀疏点云数据;最后,运用OpenMVS深度图融合技术进行稠密重建和曲面拟合,从而获得高精度的三维模型。结果实验结果表明:所提方法不仅显著增强了图像特征匹配度,而且大大提升了三维重建的准确性和精度。结论该方法不仅显著提高了图像特征匹配的精确度,而且提升了三维重建的准确性和精确度,预计将为临床医生提供更直观的诊断依据。 展开更多
关键词 内窥镜图像 Neighbor2Neighbor 增量式SFM 深度图融合算法
在线阅读 下载PDF
面向自动驾驶的稀疏深度图补全方法SFN-D
4
作者 吴彬 赵海燕 +1 位作者 曹健 陈庆奎 《计算机应用研究》 北大核心 2025年第11期3476-3481,共6页
在自动驾驶领域,稀疏深度图的密集化是重要研究课题,对3D重建和3D目标检测等任务具有突出意义。提出一种新颖的深度补全框架SFN-D,该框架基于多模态数据融合和语义分割设计,利用多模态数据各自的优势来补充稀疏深度图中的缺失深度,从而... 在自动驾驶领域,稀疏深度图的密集化是重要研究课题,对3D重建和3D目标检测等任务具有突出意义。提出一种新颖的深度补全框架SFN-D,该框架基于多模态数据融合和语义分割设计,利用多模态数据各自的优势来补充稀疏深度图中的缺失深度,从而有效补充稀疏深度图。为了实现这一目标,采取一种借助传感器标定进行数据转换,从而实现多模态数据融合和深度图修正的方案。该框架融合了来自图像和激光雷达的特征图,可与现有任何优秀的点云语义分割网络和图片分割网络相适配,无需任何专家知识且能够开放性地实现稀疏深度图的深度补全。使用自动驾驶领域中广泛使用的KITTI depth compeletion数据集与相似深度补全方法评估了SFN-D,实验结果表明与其他深度补全方法相比,SFN-D有效且有更高的精度。 展开更多
关键词 深度补全 多模态融合 自动驾驶 稀疏深度图
在线阅读 下载PDF
基于多视角边缘检测融合的放射性物品运输容器特征提取
5
作者 张沛东 肖连博 +4 位作者 张煜航 焦力敏 孙洪超 庄大杰 李国强 《包装工程》 北大核心 2025年第11期294-302,共9页
目的针对放射性物品运输容器可靠性评估中存在的三维形变测量精度不足的瓶颈问题,提出一种融合多视角深度图投影与亚像素边缘检测的三维点云特征提取方法,以高精度几何特征数据支撑容器的结构优化设计与安全验证。方法首先,构建最小包... 目的针对放射性物品运输容器可靠性评估中存在的三维形变测量精度不足的瓶颈问题,提出一种融合多视角深度图投影与亚像素边缘检测的三维点云特征提取方法,以高精度几何特征数据支撑容器的结构优化设计与安全验证。方法首先,构建最小包围立方体,并设计六自由度多视角正交投影系统,将三维点云降维映射至二维深度图,实现容器全表面覆盖;其次,基于拟合边缘模型及局部灰度面积效应,检测亚像素边缘点;进一步结合投影参数化映射与动态曲率插值算法,引入法向量连续性约束及加权融合策略,重构高保真三维特征点;最后,搭建实验系统,获取容器三维点云数据,基于简化率、配准误差及计算时间指标,并与现有点云特征提取方法进行对比。结果采用所提方法获取特征点云,其配准最大平均误差为1.33 mm,最大均方根误差为1.39 mm,简化率为1.6%。与其他文献的结果相比,所提方法的简化率更小,计算时间更短,且误差更小。结论所提方法有效解决了大规模点云处理与几何特征保真之间的矛盾,显著提升了放射性容器三维特征提取的精度和效率,为核能工程安全评估提供了可靠的几何形变量化分析技术支撑。 展开更多
关键词 放射性物品运输容器 三维形变测量 多视角深度图融合 亚像素边缘检测
在线阅读 下载PDF
融合自适应采样与全局感知的图像深度估计算法
6
作者 王国相 李昌隆 +2 位作者 宋俊锋 叶振 金恒 《计算机工程与应用》 北大核心 2025年第5期261-268,共8页
深度估计旨在通过少量稀疏深度样本点预测场景的稠密深度图,现有方法通常直接从稀疏深度样本生成最终的深度预测图,没有充分挖掘稀疏深度图包含的几何信息,导致深度估计算法的预测精度不够高。针对上述问题,提出一种融合自适应采样与全... 深度估计旨在通过少量稀疏深度样本点预测场景的稠密深度图,现有方法通常直接从稀疏深度样本生成最终的深度预测图,没有充分挖掘稀疏深度图包含的几何信息,导致深度估计算法的预测精度不够高。针对上述问题,提出一种融合自适应采样与全局感知的图像深度估计算法,由粗粒度到细粒度逐步预测深度图。通过引入预训练的深度补全网络预测粗粒度的稠密深度图,获取丰富的场景结构信息和语义信息。设计自适应深度采样方法,引导算法模型对远处的区域施加更多关注,缓解深度数据的长尾分布问题。同时通过新设计的全局感知模块,捕获并融合多尺度特征,从而获取更多的场景上下文信息。在NYU-Depth-v2数据集上的实验结果表明,算法在整体性能上超越了其他方法;消融实验的结果验证了提出的各个模块的有效性;Zero-shot实验的结果表明算法有较好的泛化性能,其中在ScanNet数据集上的阈值精度指标δ<1.25相比P3D方法提升了42个百分点,相比S2D方法则提升了3.8个百分点。 展开更多
关键词 深度估计 深度补全 稠密深度图 多尺度特征融合 自适应采样
在线阅读 下载PDF
多传感器融合的无人车SLAM系统研究
7
作者 吴文昊 谷玉海 《重庆理工大学学报(自然科学)》 北大核心 2025年第1期229-235,共7页
为提高无人车的避障能力,使其能够在构建的地图环境中高效地进行自动定位和路径规划,提出一种多传感器融合的无人车SLAM系统。对于障碍物监测,采用激光雷达与深度相机信息融合的方法构建地图,以融合得到更精准的栅格图。搭建了履带式差... 为提高无人车的避障能力,使其能够在构建的地图环境中高效地进行自动定位和路径规划,提出一种多传感器融合的无人车SLAM系统。对于障碍物监测,采用激光雷达与深度相机信息融合的方法构建地图,以融合得到更精准的栅格图。搭建了履带式差速底盘运动学模型,通过融合IMU数据提高位姿估计精度;分析了贝叶斯推理方法,在决策层以该方法有效融合激光雷达与深度相机的数据;提出基于卡尔曼滤波算法动态调整权重将雷达与相机的后验概率融合,得到最终的地图栅格信息。最后,根据融合后的数据构建地图并实现自主导航的功能。通过对比实验发现,改进的多传感器融合建图算法定位精度综合提高了91.67%,实时的整体性能提升了54.46%,栅格建图完整性提升了6.59%。 展开更多
关键词 贝叶斯算法 融合建图 激光雷达 深度相机 ROS2
在线阅读 下载PDF
基于雾天模拟图像的能见度估计方法研究
8
作者 邱实卓 叶青 +1 位作者 黄佳恒 刘建平 《电光与控制》 北大核心 2025年第3期94-100,共7页
针对带有能见度标签的雾天图像数据集匮乏的问题,提出一种基于雾天模拟图像的能见度检测方法。通过无监督深度估计模型构建户外清晰图像的深度图,并且利用特征融合来细化深度图细节,采用暗通道法筛选天空区域估计大气光值,获得设定能见... 针对带有能见度标签的雾天图像数据集匮乏的问题,提出一种基于雾天模拟图像的能见度检测方法。通过无监督深度估计模型构建户外清晰图像的深度图,并且利用特征融合来细化深度图细节,采用暗通道法筛选天空区域估计大气光值,获得设定能见度下户外图像的透射率图,进一步获得带有不同能见度标签的雾天模拟图像数据集,基于此利用改进后的ShuffleNet V2网络训练能见度估计模型。对数据集和真实雾天图像进行了能见度等级估计的验证实验,实验结果表明,对能见度小于500 m的雾天图像具有良好的能见度估测结果,对小于200 m的检测准确率高于90%,总体准确率为87.8%,表明该方法具有可行性,可用于大雾条件下的道路能见度等级估测。 展开更多
关键词 雾天模拟 深度图 特征融合 ShuffleNet V2 能见度估计
在线阅读 下载PDF
基于单目视觉SLAM的无人机视频实时建图框架 被引量:1
9
作者 孙一铭 张璐 +3 位作者 马腾飞 张海瑞 程傲楠 刘见礼 《测绘科学》 北大核心 2025年第5期167-176,共10页
针对在应急救灾和军事侦察等场景中,需要实时生成地图产品,传统基于运动恢复结构(SFM)的方法仅支持离线处理的问题,提出一种基于单目视觉SLAM的无人机视频实时建图框架。该框架能够实时处理无人机视频帧和GNSS/INS位姿数据,快速生成密... 针对在应急救灾和军事侦察等场景中,需要实时生成地图产品,传统基于运动恢复结构(SFM)的方法仅支持离线处理的问题,提出一种基于单目视觉SLAM的无人机视频实时建图框架。该框架能够实时处理无人机视频帧和GNSS/INS位姿数据,快速生成密集点云、数字表面模型(DSM)及数字正射影像图(DOM)。关键处理模块包括位姿解算、三维重建和地图生成。在3个不同样区的实地测试结果表明,生成的DSM的平均高程精度在2 m以内,DOM的平均平面精度在1 m以内,可以满足应急应用场景的精度需求。在效率方面,处理时间相对于飞行时间的平均延迟为4.66%,基本实现实时处理的目标。对比实验结果显示,本研究提出的框架在性能上优于先进的OpenREALM框架。 展开更多
关键词 视觉SLAM 无人机视频 位姿融合 深度图 密集点云 DSM DOM
原文传递
改进几何约束的多特征视觉Manhattan-SLAM
10
作者 程鹏 王珂 +2 位作者 邓甘霖 李炎隆 李鹏 《导航定位学报》 北大核心 2025年第2期172-178,共7页
针对视觉跟踪过程中出现的低纹理场景,以及由于运动模糊等因素导致同时定位与建图(SLAM)系统对环境特征的识别和跟踪偏差较大,甚至失效的问题,设计一种点线面多特征融合跟踪方法:改进快速直线检测算法,显化隐藏参数并使其可调整;然后针... 针对视觉跟踪过程中出现的低纹理场景,以及由于运动模糊等因素导致同时定位与建图(SLAM)系统对环境特征的识别和跟踪偏差较大,甚至失效的问题,设计一种点线面多特征融合跟踪方法:改进快速直线检测算法,显化隐藏参数并使其可调整;然后针对短线特征进行筛选与合并,提高系统对环境信息的利用效率;最后在曼哈顿(Manhattan)世界假设中,提出一种结合几何与外观的线特征跟踪策略,利用线特征之间的几何关系建立约束优化匹配与跟踪,提高位姿估计的精度。实验结果表明,改进的特征跟踪方法相较于原算法在跟踪效率和整体定位精度方面都有明显提升,验证了该算法的有效性。 展开更多
关键词 多特征融合 视觉同时定位与建图(SLAM) 曼哈顿(Manhattan)假设 彩色-深度(RGB-D) 位姿估计
在线阅读 下载PDF
激光雷达点云球面投影与相机融合的环境语义分割算法
11
作者 杨涵 高骏 +6 位作者 刘勇 贺秀伟 檀利 殷艳坤 申晓雷 杨菲菲 彭成磊 《装备环境工程》 2025年第7期9-15,共7页
目的 融合激光雷达与相机的多模态信息,完成语义分割任务。方法 通过球面投影,将激光雷达三维点云转化为二维稀疏深度图,与相机图像实现像素级对齐。在神经网络模型中,设计非对称双分支编码器,使用稀疏卷积提取深度图特征,使用残差结构... 目的 融合激光雷达与相机的多模态信息,完成语义分割任务。方法 通过球面投影,将激光雷达三维点云转化为二维稀疏深度图,与相机图像实现像素级对齐。在神经网络模型中,设计非对称双分支编码器,使用稀疏卷积提取深度图特征,使用残差结构提取相机图像特征,2种模态的特征通过融合网络实现特征混合,得到融合图像。对融合图像使用基于跳跃连接的解码器解析特征,恢复分辨率并生成语义分割结果。结果 设计的算法有效提取和融合了2种模态的特征,降低了环境因素对单传感器的干扰,提高了语义分割的精确度和稳健性。算法在KITTI数据集上的mIoU指标达到了64.4%,较传统单模态环境语义分割算法提升了8.6%,且受光照影响更小。结论 相机的色彩纹理信息与激光雷达的精确深度信息具备信息维度互补能力,本文设计的多模态融合环境语义分割算法有效完成了环境语义分割任务,具备较高的精确度与稳健性。 展开更多
关键词 语义分割 环境感知 多模态感知 深度学习 特征融合 激光雷达 深度图
在线阅读 下载PDF
基于双流聚合Transformer的RGB-D语义分割
12
作者 葛梦娇 苏雯 +2 位作者 何烨 陈稼炜 高金凤 《电子科技》 2025年第12期79-85,共7页
针对RGB-D(Red Green Blue Depth)语义分割中色彩信息和深度信息无法有效融合以及无法充分提取多尺度上下文信息的问题,文中提出了一种基于双流聚合Transformer的RGB-D语义分割方法。通过Transformer提取全彩图像和深度图像的多层次特征... 针对RGB-D(Red Green Blue Depth)语义分割中色彩信息和深度信息无法有效融合以及无法充分提取多尺度上下文信息的问题,文中提出了一种基于双流聚合Transformer的RGB-D语义分割方法。通过Transformer提取全彩图像和深度图像的多层次特征,采用通道注意交叉融合模块与深度增强RGB操作实现各层次特征模态鸿沟的补偿,完成双模态信息融合。使用多层聚合解码器模块整合多层次多尺度上下文特征,减少了信息传递损失,实现了更准确和更全面的语义分割。实验结果表明,所提方法在NYU-Dv2数据集上的平均交并比(mean Intersection over Union,mIoU)、像素准确率和平均像素准确率分别达到52.9%、78.0%、66.0%。在Cityscapes数据集上的实验结果表明,在低分辨率输入图像下,所提方法的mIoU达到了79.8%。 展开更多
关键词 RGB-D 语义分割 TRANSFORMER 通道注意交叉融合 深度增强RGB操作 多层聚合解码器 全彩图像 深度图像
在线阅读 下载PDF
基于多视角深度图融合算法的火灾救援技能训练虚拟三维场景构建
13
作者 邹璇 冀卓 黄平利 《中国人民警察大学学报》 2025年第8期64-69,共6页
为向消防救援人员提供完整清晰的虚拟训练环境,基于几何特征深度图融合算法,设计一种火灾救援技能训练虚拟三维场景构建方法。采用Azure Kinect DK深度相机,获取多视角深度图;分析物体的距离和位置关系信息,设置几何特征约束条件,设计... 为向消防救援人员提供完整清晰的虚拟训练环境,基于几何特征深度图融合算法,设计一种火灾救援技能训练虚拟三维场景构建方法。采用Azure Kinect DK深度相机,获取多视角深度图;分析物体的距离和位置关系信息,设置几何特征约束条件,设计多视角深度图融合点确定算法;利用八叉树结构,整合与筛选深度图融合点,进行几何特征深度图融合;引入AKAZE算法,捕捉和呈现几何特征深度图融合点的关键特征位置和边缘信息;在非线性扩散三维空间中,聚合三维边缘信息,输出三维分布矩阵,构建火灾救援技能训练虚拟三维场景。实验结果表明,本方法可以准确测量场景中不同物体的深度信息,更好地保留火灾救援场景中的色彩、细节,构建的三维场景完整度和清晰度均较高。 展开更多
关键词 深度相机 多视角深度图融合 几何特征 三维重建
在线阅读 下载PDF
基于双向时空特征学习的人体深度图像估计
14
作者 朱子斌 李千林 +1 位作者 张小燕 韩双双 《计算机工程》 北大核心 2025年第10期258-269,共12页
为了更准确地预测人体的深度图像,提出一种基于视频的人体深度图像估计方法BiSTNet。为了从视频中充分挖掘三维(3D)信息,提出双向时空特征学习模型,分别从过去帧和未来帧2个序列方向学习双向时空特征,并利用双向时空特征注意力模型来强... 为了更准确地预测人体的深度图像,提出一种基于视频的人体深度图像估计方法BiSTNet。为了从视频中充分挖掘三维(3D)信息,提出双向时空特征学习模型,分别从过去帧和未来帧2个序列方向学习双向时空特征,并利用双向时空特征注意力模型来强化有效帧的影响。同时,引入多尺度特征融合预测模块,在有效融合双向时空特征和空间特征的基础上,预测精确的、具有丰富局部几何细节的深度图像,使得由预测深度图像重建的3D模型更加逼真。在模型训练过程中,使用人体关节相对顺序关系约束和双向序列自监督学习策略,在提高预测精度的同时降低对有监督数据的依赖性。实验结果表明,BiSTNet方法不仅能有效降低预测深度图像的误差,而且所预测的深度图像细节丰富。 展开更多
关键词 双向时空特征 多尺度特征融合 双向自监督 深度图像估计 人体关节相对顺序关系约束
在线阅读 下载PDF
基于深度图像融合的无人机测绘点云特征匹配与重建研究
15
作者 罗玉霜 《佳木斯大学学报(自然科学版)》 2025年第11期146-149,共4页
为了利用无人机测绘获取不同场景的具体数据,以对该场景进行监测,实验提出了一种基于深度图像融合的无人机测绘点云特征匹配与重建方法。利用深度学习与图像处理技术提取的数据点云之间进行精确匹配,以实现更为精确的场景三维模型重建... 为了利用无人机测绘获取不同场景的具体数据,以对该场景进行监测,实验提出了一种基于深度图像融合的无人机测绘点云特征匹配与重建方法。利用深度学习与图像处理技术提取的数据点云之间进行精确匹配,以实现更为精确的场景三维模型重建。结果显示,在训练集与验证集上,当图像数量达到第1654张与第746张时,深度图像融合算法的最优验证精度有最大值,分别为79.94%与82.30%;此外,所提方法对深度图像空洞邻域的填充效果更好。以上结果均说明所提方法在特征匹配的准确率和点云重建的质量上都有显著提升,能够为深度学习在遥感图像处理领域的应用提供有益的支持。 展开更多
关键词 无人机测绘 深度图像融合 点云 特征匹配 三维重建
在线阅读 下载PDF
多线索非参数化融合的单目视频深度估计 被引量:2
16
作者 刘天亮 莫一鸣 +3 位作者 徐高帮 戴修斌 朱秀昌 罗杰波 《东南大学学报(自然科学版)》 EI CAS CSCD 北大核心 2015年第5期834-839,共6页
为解决二维视频的三维转化问题,提出了一种基于非参数化学习和多线索融合的单目视频深度图提取方法.首先,利用单目图像的区域边界轮廓和几何透视结构线索,基于前景背景融合来估计单目视频中各帧的深度图像;然后,利用视频帧间空时相关性... 为解决二维视频的三维转化问题,提出了一种基于非参数化学习和多线索融合的单目视频深度图提取方法.首先,利用单目图像的区域边界轮廓和几何透视结构线索,基于前景背景融合来估计单目视频中各帧的深度图像;然后,利用视频帧间空时相关性,借助非参数学习实现单目视频深度估计;最后,利用全局背景深度分段约束和去抖动来增强深度视频序列.实验结果表明,与其他现有方法相比,该方法能得到更为准确的单目视频深度图序列,无论在主观质量还是均方根误差(RMS)和结构相似性度量(SSIM)上,均能取得较好的效果. 展开更多
关键词 深度图 非参数化融合 多线索 线性透视 空时相关
在线阅读 下载PDF
基于置信度的深度图融合 被引量:3
17
作者 刘怡光 董鹏飞 +1 位作者 李杰 都双丽 《四川大学学报(工程科学版)》 EI CAS CSCD 北大核心 2016年第4期101-106,共6页
由于匹配信息弱或噪声影响,深度计算精度难以保证,故深度图融合是多目立体视觉3维重建中的关键部分。为此,提出一种基于置信度的抗噪融合算法。该方法首先对每幅深度图进行修正,利用一致性检测剔除大多数错误点并填补某些空洞。其次,通... 由于匹配信息弱或噪声影响,深度计算精度难以保证,故深度图融合是多目立体视觉3维重建中的关键部分。为此,提出一种基于置信度的抗噪融合算法。该方法首先对每幅深度图进行修正,利用一致性检测剔除大多数错误点并填补某些空洞。其次,通过保留那些在自身邻域内具有最高置信度的3维点以删除冗余。最后,将深度图反投影到3维空间,采用迭代最小二乘法进一步优化3维点并剔除离群点。通过在标准测试数据集上与其他算法比较,验证了该方法的有效性。 展开更多
关键词 多目立体视觉 3维重建 深度图融合 置信度 迭代最小二乘法
在线阅读 下载PDF
一个基于多视图立体视觉的三维重建方法 被引量:4
18
作者 苗兰芳 《浙江师范大学学报(自然科学版)》 CAS 2013年第3期241-246,共6页
研究了基于多视图立体视觉的三维重建方法.给定一组待重建物体的图像,利用传统的立体视觉技术计算每幅图像的深度信息;然后设计一个基于体素划分的模型融合方法,将图像的深度信息融合为一个完整的三维初始模型;随后,对初始模型进行全局... 研究了基于多视图立体视觉的三维重建方法.给定一组待重建物体的图像,利用传统的立体视觉技术计算每幅图像的深度信息;然后设计一个基于体素划分的模型融合方法,将图像的深度信息融合为一个完整的三维初始模型;随后,对初始模型进行全局的迭代优化,输出最终的重建模型.在构造体素网络图时,充分利用图像一致性度量建立体素之间的连接关系;在对模型迭代优化时,结合图像一致性度量和网格的光顺性准则.该方法能很好地处理纹理缺失的区域,获得完整的三维模型.实验结果证明:该方法能够重建高质量完整的三维模型. 展开更多
关键词 多视图 三维重建 深度图 模型融合 网格优化
在线阅读 下载PDF
基于偏振特性的雾霾降质图像融合复原方法 被引量:1
19
作者 彭文竹 王钦 +1 位作者 吴亚建 张禹 《集美大学学报(自然科学版)》 CAS 2017年第3期60-68,共9页
在大气散射理论模型的基础上,分析了利用图像的偏振信息复原雾天图像的方法。根据图像偏振信息的复原算法原理,研究了偏振特性的图像配准融合方法,并在此基础上采用搜索最佳正态分布算法及自适应二维维纳滤波方法对模型参数的大气光和... 在大气散射理论模型的基础上,分析了利用图像的偏振信息复原雾天图像的方法。根据图像偏振信息的复原算法原理,研究了偏振特性的图像配准融合方法,并在此基础上采用搜索最佳正态分布算法及自适应二维维纳滤波方法对模型参数的大气光和环境光深度图进行估算,从而根据偏振图像复原方程达到复原清晰景物图像的目的。在MATLAB仿真平台进行图像复原测试,并进行主客观评价分析,结果表明该方法可以取得较好的图像复原效果。 展开更多
关键词 偏振光 图像融合 正态分布 深度图 维纳滤波
在线阅读 下载PDF
俯视深度头肩序列行人再识别 被引量:2
20
作者 王新年 刘春华 +1 位作者 齐国清 张世强 《中国图象图形学报》 CSCD 北大核心 2020年第7期1393-1407,共15页
目的行人再识别是指在一个或者多个相机拍摄的图像或视频中实现行人匹配的技术,广泛用于图像检索、智能安保等领域。按照相机种类和拍摄视角的不同,行人再识别算法可主要分为基于侧视角彩色相机的行人再识别算法和基于俯视角深度相机的... 目的行人再识别是指在一个或者多个相机拍摄的图像或视频中实现行人匹配的技术,广泛用于图像检索、智能安保等领域。按照相机种类和拍摄视角的不同,行人再识别算法可主要分为基于侧视角彩色相机的行人再识别算法和基于俯视角深度相机的行人再识别算法。在侧视角彩色相机场景中,行人身体的大部分表观信息可见;而在俯视角深度相机场景中,仅行人头部和肩部的结构信息可见。现有的多数算法主要针对侧视角彩色相机场景,只有少数算法可以直接应用于俯视角深度相机场景中,尤其是低分辨率场景,如公交车的车载飞行时间(time of flight,TOF)相机拍摄的视频。因此针对俯视角深度相机场景,本文提出了一种基于俯视深度头肩序列的行人再识别算法,以期提高低分辨率场景下的行人再识别精度。方法对俯视深度头肩序列进行头部区域检测和卡尔曼滤波器跟踪,获取行人的头部图像序列,构建头部深度能量图组(head depth energy map group,He DEMaG),并据此提取深度特征、面积特征、投影特征、傅里叶描述子和方向梯度直方图(histogram of oriented gradient,HOG)特征。计算行人之间头部深度能量图组的各特征之间的相似度,再利用经过模型学习所获得的权重系数对各特征相似度进行加权融合,从而得到相似度总分,将最大相似度对应的行人标签作为识别结果,实现行人再识别。结果本文算法在公开的室内单人场景TVPR(top view person re-identification)数据集、自建的室内多人场景TDPI-L(top-view depth based person identification for laboratory scenarios)数据集和公交车实际场景TDPI-B(top-view depth based person identification for bus scenarios)数据集上进行了测试,使用首位匹配率(rank-1)、前5位匹配率(rank-5)、宏F1值(macro-F1)、累计匹配曲线(cumulative match characteristic,CMC)和平均耗时等5个指标来衡量算法性能。其中,rank-1、rank-5和macro-F1分别达到61%、68%和67%以上,相比于典型算法至少提高了11%。结论本文构建了表达行人结构与行为特征的头部深度能量图组,实现了适合低分辨率行人的多特征表达;提出了基于权重学习的相似度融合,提高了识别精度,在室内单人、室内多人和公交车实际场景数据集中均取得了较好的效果。 展开更多
关键词 深度相机 俯视深度头肩序列 头部深度能量图组 相似度权重学习 行人再识别
原文传递
上一页 1 2 3 下一页 到第
使用帮助 返回顶部