期刊文献+
共找到24篇文章
< 1 2 >
每页显示 20 50 100
Depth-Guided Vision Transformer With Normalizing Flows for Monocular 3D Object Detection 被引量:2
1
作者 Cong Pan Junran Peng Zhaoxiang Zhang 《IEEE/CAA Journal of Automatica Sinica》 SCIE EI CSCD 2024年第3期673-689,共17页
Monocular 3D object detection is challenging due to the lack of accurate depth information.Some methods estimate the pixel-wise depth maps from off-the-shelf depth estimators and then use them as an additional input t... Monocular 3D object detection is challenging due to the lack of accurate depth information.Some methods estimate the pixel-wise depth maps from off-the-shelf depth estimators and then use them as an additional input to augment the RGB images.Depth-based methods attempt to convert estimated depth maps to pseudo-LiDAR and then use LiDAR-based object detectors or focus on the perspective of image and depth fusion learning.However,they demonstrate limited performance and efficiency as a result of depth inaccuracy and complex fusion mode with convolutions.Different from these approaches,our proposed depth-guided vision transformer with a normalizing flows(NF-DVT)network uses normalizing flows to build priors in depth maps to achieve more accurate depth information.Then we develop a novel Swin-Transformer-based backbone with a fusion module to process RGB image patches and depth map patches with two separate branches and fuse them using cross-attention to exchange information with each other.Furthermore,with the help of pixel-wise relative depth values in depth maps,we develop new relative position embeddings in the cross-attention mechanism to capture more accurate sequence ordering of input tokens.Our method is the first Swin-Transformer-based backbone architecture for monocular 3D object detection.The experimental results on the KITTI and the challenging Waymo Open datasets show the effectiveness of our proposed method and superior performance over previous counterparts. 展开更多
关键词 monocular 3d object detection normalizing flows Swin Transformer
在线阅读 下载PDF
Monocular 3D object detection with Pseudo-LiDAR confidence sampling and hierarchical geometric feature extraction in 6G network
2
作者 Jianlong Zhang Guangzu Fang +3 位作者 Bin Wang Xiaobo Zhou Qingqi Pei Chen Chen 《Digital Communications and Networks》 SCIE CSCD 2023年第4期827-835,共9页
The high bandwidth and low latency of 6G network technology enable the successful application of monocular 3D object detection on vehicle platforms.Monocular 3D-object-detection-based Pseudo-LiDAR is a low-cost,lowpow... The high bandwidth and low latency of 6G network technology enable the successful application of monocular 3D object detection on vehicle platforms.Monocular 3D-object-detection-based Pseudo-LiDAR is a low-cost,lowpower solution compared to LiDAR solutions in the field of autonomous driving.However,this technique has some problems,i.e.,(1)the poor quality of generated Pseudo-LiDAR point clouds resulting from the nonlinear error distribution of monocular depth estimation and(2)the weak representation capability of point cloud features due to the neglected global geometric structure features of point clouds existing in LiDAR-based 3D detection networks.Therefore,we proposed a Pseudo-LiDAR confidence sampling strategy and a hierarchical geometric feature extraction module for monocular 3D object detection.We first designed a point cloud confidence sampling strategy based on a 3D Gaussian distribution to assign small confidence to the points with great error in depth estimation and filter them out according to the confidence.Then,we present a hierarchical geometric feature extraction module by aggregating the local neighborhood features and a dual transformer to capture the global geometric features in the point cloud.Finally,our detection framework is based on Point-Voxel-RCNN(PV-RCNN)with high-quality Pseudo-LiDAR and enriched geometric features as input.From the experimental results,our method achieves satisfactory results in monocular 3D object detection. 展开更多
关键词 monocular 3d object detection Pseudo-LiDAR Confidence sampling Hierarchical geometric feature extraction
在线阅读 下载PDF
MonoDI:基于融合深度实例的单目3D目标检测
3
作者 赵科 董浩然 业宁 《数据采集与处理》 北大核心 2025年第5期1322-1332,共11页
单目3D目标检测旨在定位输入单个2D图像中物体的3D边界框,这在缺乏图像深度信息的情况下是一个极具困难的任务。针对2D图像在推理时的深度信息缺失以及深度图背景噪声干扰导致检测效果不佳的问题,提出一种融合深度实例的单目3D目标检测... 单目3D目标检测旨在定位输入单个2D图像中物体的3D边界框,这在缺乏图像深度信息的情况下是一个极具困难的任务。针对2D图像在推理时的深度信息缺失以及深度图背景噪声干扰导致检测效果不佳的问题,提出一种融合深度实例的单目3D目标检测方法MonoDI。其关键思想在于利用有效的深度估计网络所生成的深度信息结合实例分割掩码得到深度实例,再与2D图像信息融合来帮助物体3D信息的回归。为了更好地利用深度实例信息,设计了一个迭代深度感知注意力融合模块(iterative Depth aware attention fusion module,iDAAFM),将深度实例特征与2D图像特征融合以得到含有物体清晰边界和深度信息的特征表示;另外,在训练和推理过程引入残差卷积结构代替一般的单一卷积结构,以保证网络在处理融合信息时的稳定与高效。同时,设计了一个3D边界框不确定性辅助任务,在训练中帮助任务学习边界框的生成,提高单目3D目标检测任务的精度。在KITTI数据集上对此方法进行验证,实验结果表明,MonoDI在3D目标检测任务中中等难度情况下的车辆类别的检测精度比基线提高了4.41个百分点,且优于MonoCon、MonoLSS等对比方法,同时在KITTI-nuScenes跨数据集实验中取得了较优的结果。 展开更多
关键词 单目3d目标检测 实例分割 特征融合 残差卷积 辅助学习
在线阅读 下载PDF
基于表面高度和不确定性的单目3D物体检测
4
作者 吉银帅 续晋华 《华东师范大学学报(自然科学版)》 北大核心 2025年第1期72-81,共10页
单目3D (three-dimensional)物体检测是自动驾驶和机器人导航中的一项基础但具有挑战性的任务.直接从单张图片预测深度本质上是一个不适定的问题.几何投影是一种强大的深度估计方法,它从物体的物理高度和图像平面中的投影高度推断物体... 单目3D (three-dimensional)物体检测是自动驾驶和机器人导航中的一项基础但具有挑战性的任务.直接从单张图片预测深度本质上是一个不适定的问题.几何投影是一种强大的深度估计方法,它从物体的物理高度和图像平面中的投影高度推断物体的深度.然而,高度估计错误将会放大深度估计的误差.研究了预测物体表面点的物理高度和投影高度,而不是物体本身的高度,由此可获得一系列深度候选值;还研究了估计高度的不确定性,并根据不确定性来组合这些深度候选值,以获得最终的目标深度.实验证明了此深度估计方法的有效性,且该方法在KITTI数据集的单目3D目标检测任务上达到了SOTA (state-ofthe-art)结果. 展开更多
关键词 单目3d物体检测 深度估计 几何投影 自动驾驶
在线阅读 下载PDF
基于上下文信息增强和深度引导的单目3D目标检测
5
作者 于家艺 吴秦 《浙江大学学报(工学版)》 北大核心 2025年第1期89-99,共11页
为了充分利用单目图像提供的特征信息,提出上下文信息增强和深度引导的单目3D目标检测方法.设计高效的上下文信息增强模块,使用多个大核卷积自适应地增强多尺度目标的上下文信息,利用深度可分离卷积和条形卷积操作有效减少大核卷积的参... 为了充分利用单目图像提供的特征信息,提出上下文信息增强和深度引导的单目3D目标检测方法.设计高效的上下文信息增强模块,使用多个大核卷积自适应地增强多尺度目标的上下文信息,利用深度可分离卷积和条形卷积操作有效减少大核卷积的参数量和计算复杂度.统计分析3D目标框各个属性的预测误差,发现3D目标框的长度和深度属性预测不准确是导致预测框偏差大的主要原因.设计深度误差加权损失函数,在训练过程中进行目标的长度和深度预测监督,提高长度和深度属性的预测精度,进而提升3D预测框的准确性.在KITTI数据集上开展实验,结果表明,所提方法在数据集的多个级别上的平均准确度高于现有的单目3D目标检测方法. 展开更多
关键词 单目3d目标检测 大核卷积 深度可分离卷积 条形卷积 多尺度目标
在线阅读 下载PDF
基于深度与实例分割融合的单目3D目标检测方法 被引量:3
6
作者 孙逊 冯睿锋 陈彦如 《计算机应用》 CSCD 北大核心 2024年第7期2208-2215,共8页
针对单目3D目标检测在视角变化引起的物体大小变化以及物体遮挡等情况下效果不佳的问题,提出一种融合深度信息和实例分割掩码的新型单目3D目标检测方法。首先,通过深度-掩码注意力融合(DMAF)模块,将深度信息与实例分割掩码结合,以提供... 针对单目3D目标检测在视角变化引起的物体大小变化以及物体遮挡等情况下效果不佳的问题,提出一种融合深度信息和实例分割掩码的新型单目3D目标检测方法。首先,通过深度-掩码注意力融合(DMAF)模块,将深度信息与实例分割掩码结合,以提供更准确的物体边界;其次,引入动态卷积,并利用DMAF模块得到的融合特征引导动态卷积核的生成,以处理不同尺度的物体;再次,在损失函数中引入2D-3D边界框一致性损失函数,调整预测的3D边界框与对应的2D检测框高度一致,以提高实例分割和3D目标检测任务的效果;最后,通过消融实验验证该方法的有效性,并在KITTI测试集上对该方法进行验证。实验结果表明,与仅使用深度估计图和实例分割掩码的方法相比,在中等难度下对车辆类别检测的平均精度提高了6.36个百分点,且3D目标检测和鸟瞰图目标检测任务的效果均优于D4LCN(Depth-guided Dynamic-Depthwise-Dilated Local Convolutional Network)、M3D-RPN(Monocular 3D Region Proposal Network)等对比方法。 展开更多
关键词 单目3d目标检测 深度学习 动态卷积 实例分割
在线阅读 下载PDF
基于Contextual Transformer的自动驾驶单目3D目标检测 被引量:1
7
作者 厍向阳 颜唯佳 董立红 《计算机工程与应用》 CSCD 北大核心 2024年第19期178-189,共12页
针对当前单目3D目标检测中存在的漏检和多尺度目标检测效果不佳的问题,提出了一种基于Contextual Transformer的自动驾驶单目3D目标检测算法(CM-RTM3D)。在ResNet-50网络中引入Contextual Transformer(CoT),构建ResNet-Transformer架构... 针对当前单目3D目标检测中存在的漏检和多尺度目标检测效果不佳的问题,提出了一种基于Contextual Transformer的自动驾驶单目3D目标检测算法(CM-RTM3D)。在ResNet-50网络中引入Contextual Transformer(CoT),构建ResNet-Transformer架构以提取特征。设计多尺度空间感知模块(MSP),通过尺度空间响应操作改善浅层特征的丢失情况,嵌入沿水平和竖直两个空间方向的坐标注意力机制(CA),使用softmax函数生成各尺度的重要性软权重。在偏移损失中采用Huber损失函数代替L1损失函数。实验结果表明:在KITTI自动驾驶数据集上,相较于RTM3D算法,该算法在简单、中等、困难三个难度级别下,AP3D分别提升了4.84、3.82、5.36个百分点,APBEV分别提升了4.75、6.26、3.56个百分点。 展开更多
关键词 自动驾驶 单目3d目标检测 Contextual Transformer 多尺度感知 坐标注意力机制
在线阅读 下载PDF
面向自动驾驶的多尺度目标三维检测算法
8
作者 刘嫚 陈晓楠 《现代电子技术》 北大核心 2026年第1期141-147,共7页
在自动驾驶场景中,使用单目相机进行三维目标检测是一项具有挑战性的任务,尤其是在复杂道路环境下,目标的尺度差异和遮挡现象容易导致误检或漏检。针对这一问题,文中提出一种基于特征融合与增强的单目三维目标检测算法。首先,构建Faster... 在自动驾驶场景中,使用单目相机进行三维目标检测是一项具有挑战性的任务,尤其是在复杂道路环境下,目标的尺度差异和遮挡现象容易导致误检或漏检。针对这一问题,文中提出一种基于特征融合与增强的单目三维目标检测算法。首先,构建FasterNet+作为骨干网络,通过优化嵌入层和块结构,增强细节信息的提取,提升网络的整体性能;其次,设计多维特征自适应融合模块,自适应地选择并融合高维与低维特征,解决高维特征丢失小目标信息和低维特征缺乏上下文信息的问题;最后,引入特征增强注意力模块,突出特定目标区域,进一步提升网络在目标定位和分类方面的精度。在nuScenes数据集上的实验结果表明,其mAP和NDS比基准方法分别提高0.038和0.035,可以有效检测出不同类型和尺度的目标,并展现出更强的鲁棒性,为自动驾驶场景中的多维目标检测提供了一种新思路。 展开更多
关键词 自动驾驶 单目相机 三维目标检测 多尺度感知 特征融合 注意力机制 机器视觉
在线阅读 下载PDF
基于2D-3D泛轮廓点对应的三维刚体目标的迭代姿态估计 被引量:4
9
作者 冷大炜 马洪兵 孙卫东 《中国科学院研究生院学报》 CAS CSCD 北大核心 2012年第6期821-828,共8页
以单目观测下三维刚体目标的姿态估计为研究对象,针对现有迭代估计方法存在的收敛半径小和收敛速度慢的问题,提出一种新的基于2D-3D泛轮廓点对应的迭代姿态估计方法.与现有的基于数值优化的方法不同,本方法从输入图像的2D泛轮廓点出发,... 以单目观测下三维刚体目标的姿态估计为研究对象,针对现有迭代估计方法存在的收敛半径小和收敛速度慢的问题,提出一种新的基于2D-3D泛轮廓点对应的迭代姿态估计方法.与现有的基于数值优化的方法不同,本方法从输入图像的2D泛轮廓点出发,着眼于显性地建立输入图像到目标三维模型的2D-3D特征投影对应关系,进而以此显性投影对应关系对目标的三维姿态参数进行估计.实验结果表明,该方法在算法复杂性、收敛半径和收敛速度上均有明显改进. 展开更多
关键词 三维刚体目标 单目视觉 姿态估计 特征投影对应关系
原文传递
基于单目图像的多目标三维视觉定位方法
10
作者 黄舒雯 郭柯宇 +3 位作者 宋翔宇 韩锋 孙士杰 宋焕生 《计算机应用》 北大核心 2026年第1期207-215,共9页
针对现有的三维视觉定位方法依赖昂贵传感器设备、系统成本高且在复杂多目标定位中准确度和鲁棒性不足的问题,提出一种基于单目图像的多目标三维视觉定位方法。该方法结合自然语言描述,在单个RGB图像中实现对多个三维目标的识别。为此,... 针对现有的三维视觉定位方法依赖昂贵传感器设备、系统成本高且在复杂多目标定位中准确度和鲁棒性不足的问题,提出一种基于单目图像的多目标三维视觉定位方法。该方法结合自然语言描述,在单个RGB图像中实现对多个三维目标的识别。为此,构建一个多目标视觉定位数据集Mmo3DRefer,并设计跨模态匹配网络TextVizNet。TextVizNet通过预训练的单目检测器生成目标的三维边界框,并借助信息融合模块与信息对齐模块实现视觉与语言信息的深度整合,进而实现文本指导下的多目标三维检测。与CORE-3DVG(Contextual Objects and RElations for 3D Visual Grounding)、3DVG-Transformer和Multi3DRefer(Multiple 3D object Referencing dataset and task)等5种方法对比的实验结果表明,与次优方法Multi3DRefer相比,TextVizNet在Mmo3DRefer数据集上的F1-score、精确度和召回率分别提升了8.92%、8.39%和9.57%,显著提升了复杂场景下基于文本的多目标定位精度,为自动驾驶和智能机器人等实际应用提供了有效支持。 展开更多
关键词 三维视觉定位 单目图像 多模态技术 目标检测 场景理解
在线阅读 下载PDF
基于遮挡感知像素级融合的单目3D目标检测方法 被引量:2
11
作者 林璐颖 《黑龙江工业学院学报(综合版)》 2023年第9期95-101,共7页
利用深度边界框残差和目标边界框来联合估计密集场景深度,对3D目标进行双流检测,从而产生更鲁棒的检测结果。其中,几何流组合了可见深度和深度边界框残差,通过显式的遮挡感知优化方法来恢复目标的3D边界框。此外,基于包围框的几何投影... 利用深度边界框残差和目标边界框来联合估计密集场景深度,对3D目标进行双流检测,从而产生更鲁棒的检测结果。其中,几何流组合了可见深度和深度边界框残差,通过显式的遮挡感知优化方法来恢复目标的3D边界框。此外,基于包围框的几何投影方案被用于增强距离感知。上下文流则用于直接回归3D目标的位置和大小。这种新颖的双流表示促进了跨流之间的一致性,将双流的输出结果进行对齐,从而提高整体性能。在公开数据集上的大量实验表明,该方法在保持实时推理速度的同时,在汽车类别上的检测精度也优于最先进的方法。 展开更多
关键词 深度边界框残差 密集场景深度 双流检测 单目3d目标
在线阅读 下载PDF
基于高深约束与边缘融合的单目3D目标检测
12
作者 浦斌 梁正友 孙宇 《计算机科学》 CSCD 北大核心 2024年第8期192-199,共8页
单目3D目标检测旨在通过单目图像完成3D目标检测,现有的单目3D目标检测算法大多基于经典的2D目标检测算法。针对单目3D目标检测算法中通过直接回归的实例深度估计不准,导致检测精度较差的问题,提出了一种基于高深约束与边缘特征融合的单... 单目3D目标检测旨在通过单目图像完成3D目标检测,现有的单目3D目标检测算法大多基于经典的2D目标检测算法。针对单目3D目标检测算法中通过直接回归的实例深度估计不准,导致检测精度较差的问题,提出了一种基于高深约束与边缘特征融合的单目3D目标检测算法。在实例深度估计方法上采用几何投影关系下的实例3D高度与2D高度计算高深约束,将实例深度的预测转化为对目标的2D高度以及3D高度的预测;针对单目图像存在图像边缘截断目标,采用基于深度可分离卷积的边缘融合模块来加强对边缘目标的特征提取;对于图像中目标的远近造成的目标多尺度问题,设计了基于空洞卷积的多尺度混合注意力模块,增强了对最高层特征图的多尺度特征提取。实验结果表明,所提方法在KITTI数据集上的汽车类别检测精度相比基准模型提升了7.11%,优于当前的方法。 展开更多
关键词 单目3d目标检测 高深约束 边缘融合 多尺度特征 注意力机制
在线阅读 下载PDF
智轨电车单目3D感知系统的研究 被引量:1
13
作者 王泽远 林军 +3 位作者 袁希文 徐阳翰 岳伟 熊群芳 《控制与信息技术》 2023年第5期25-32,共8页
3D感知系统是智轨电车安全运行的核心部件。针对复杂城市环境下智轨电车激光雷达系统难以感知远距离目标、对颜色不敏感以及可能失效等问题,文章提出一种用于智轨电车的纯视觉单目3D感知系统。该系统由数据预处理、模型训练和模型部署组... 3D感知系统是智轨电车安全运行的核心部件。针对复杂城市环境下智轨电车激光雷达系统难以感知远距离目标、对颜色不敏感以及可能失效等问题,文章提出一种用于智轨电车的纯视觉单目3D感知系统。该系统由数据预处理、模型训练和模型部署组成,是一套基于视觉的、包含从数据采集到上车部署的完整方案,可实现对智轨电车周围障碍物的3D感知,能提高智轨电车在复杂城市环境下行驶可靠性。基于智轨电车数据集和公开数据集Waymo的测试表明,该系统可以很好地感知智轨电车复杂道路场景,其最终3D平均准确率(average precision,AP)能够达到0.53,单帧图片推理时间约为56 ms,能满足智轨电车对感知障碍物算法的实时性要求。 展开更多
关键词 智轨电车 自动驾驶 视觉感知 注意力机制 目标检测 单目3d算法 模型部署
在线阅读 下载PDF
基于注意力机制的非平坦路面单目车距估计方法研究 被引量:1
14
作者 刘永涛 李怡飞 +2 位作者 高隆鑫 陈轶嵩 王泰琪 《汽车工程学报》 2025年第3期353-365,共13页
提出一种基于注意力机制的单目车距估计算法,以提高非平坦路面下的车距估计精度。通过将通道和空间注意力引入ImVoxelNet神经网络,增强卷积层对车辆轮廓感知和特征区分能力,有效减少车辆漏检现象;基于感兴趣区域角点标定,剔除逆透视变... 提出一种基于注意力机制的单目车距估计算法,以提高非平坦路面下的车距估计精度。通过将通道和空间注意力引入ImVoxelNet神经网络,增强卷积层对车辆轮廓感知和特征区分能力,有效减少车辆漏检现象;基于感兴趣区域角点标定,剔除逆透视变换时的冗余信息,改善了图像畸变问题;针对车辆姿态变化,提出了考虑姿态干扰的相机外参矩阵,建立了非平坦路面下的相机坐标转换模型;利用真实与逆透视图像的比例关系构建车距估计模型,实现对前车纵、横向距离准确估算。试验表明,本文方法在非平坦路面条件下,纵向80m和横向4m的间距范围内测距相对误差小于3%,验证了所提方法的有效性和准确性。 展开更多
关键词 3d目标检测 逆透视变换 测距 单目视觉
在线阅读 下载PDF
结合深度信息引导和多尺度通道注意力机制的单目三维目标检测算法 被引量:3
15
作者 刘青 李伟 +3 位作者 余少勇 宋宇萍 周启迪 邹伟林 《山东大学学报(理学版)》 北大核心 2025年第1期63-73,82,共12页
针对三维边界框无法从缺少空间线索的单目图像中准确估计的问题,本文提出一种基于深度信息引导和多尺度通道注意力机制的单目三维目标检测算法。为了引入三维信息并有效地获取和利用不同尺度特征图的空间信息,在特征提取模块中利用多尺... 针对三维边界框无法从缺少空间线索的单目图像中准确估计的问题,本文提出一种基于深度信息引导和多尺度通道注意力机制的单目三维目标检测算法。为了引入三维信息并有效地获取和利用不同尺度特征图的空间信息,在特征提取模块中利用多尺度分割注意力算法,分别从单目图像和深度图中提取多尺度预处理特征图,利用通道注意力算法进行权重标定,提高了特征图的表征能力。通过深度引导动态局部卷积网络,将包含多尺度信息的深度图特征作为单目图像特征的特定卷积核,引入三维信息作为指导,减少直接融合的误差累积,并解决单目视觉中近大远小的尺度敏感问题。选择不同的评估指标对模型的性能进行评价与比较。实验结果表明,同其他算法相比,本文算法的自动驾驶数据集中汽车、行人、骑自行车的人的三维目标检测平均精度均提高。 展开更多
关键词 单目三维目标检测 深度引导 多尺度通道注意力机制 自动驾驶
原文传递
基于单目场景的车辆三维目标检测方法综述
16
作者 唐心瑶 王伟 《现代信息科技》 2025年第9期16-24,31,共10页
近年来,车辆三维目标检测在自动驾驶等智能交通领域备受关注。相较于二维检测,三维检测可精确估计目标在三维空间中的位置、尺寸与姿态等信息。因单目相机具备成本低、数据处理效率高等优势,在实际应用中占据主导地位。文章聚焦单目场... 近年来,车辆三维目标检测在自动驾驶等智能交通领域备受关注。相较于二维检测,三维检测可精确估计目标在三维空间中的位置、尺寸与姿态等信息。因单目相机具备成本低、数据处理效率高等优势,在实际应用中占据主导地位。文章聚焦单目场景下的三维目标检测方法,系统梳理其发展脉络。首先,依据先验信息来源,将检测方法分为基于几何信息、二维目标检测与几何信息约束、三维特征估计三类,并分别剖析了每类方法中代表性算法的核心思想及其优缺点。其次,介绍领域内常用的公共数据集与评价指标,并在KITTI数据集上对典型算法的实验结果进行量化对比。最后,结合当前研究现状,剖析该领域现存的主要问题,并展望未来发展趋势。 展开更多
关键词 智能交通 单目相机 三维目标检测 深度学习
在线阅读 下载PDF
目标位姿测量中的三维视觉方法 被引量:40
17
作者 郝颖明 朱枫 欧锦军 《中国图象图形学报(A辑)》 CSCD 北大核心 2002年第12期1247-1251,共5页
要测量出一组特征点分别在两个空间坐标系下的坐标 ,就可以求解两个空间目标间的位姿关系 .实现上述目标位姿测量方法的前提条件是要保证该组特征点在不同坐标系下 ,其位置关系相同 ,但计算误差的存在却破坏了这种固定的位置关系 .为此 ... 要测量出一组特征点分别在两个空间坐标系下的坐标 ,就可以求解两个空间目标间的位姿关系 .实现上述目标位姿测量方法的前提条件是要保证该组特征点在不同坐标系下 ,其位置关系相同 ,但计算误差的存在却破坏了这种固定的位置关系 .为此 ,提出了两种基于模型的三维视觉方法——基于模型的单目视觉和基于模型的双目视觉 ,前者从视觉计算的物理意义入手 ,通过简单的约束迭代求解实现模型约束 ;后者则将简单的约束最小二乘法和基于模型的单目视觉方法融合在一起来实现模型约束 .引入模型约束后 ,单目视觉方法可以达到很高的测量精度 .而基于模型的双目视觉较传统的无模型立体视觉方法位移精度提高有限 。 展开更多
关键词 三维视觉方法 立体视觉 单目视觉 目标位姿 三维测量 量化误差 机器人技术 图象处理
在线阅读 下载PDF
单目多视角全景视觉感知三维重构技术研究 被引量:14
18
作者 郭伟青 吴小刚 汤一平 《小型微型计算机系统》 CSCD 北大核心 2019年第7期1525-1531,共7页
从图像中恢复出几何实体的三维形状是计算机视觉研究领域的一个核心课题.本文提出了一种基于单目全景成像的三维重构方法.通过单目多视角全景视觉传感器在一个摄像平面上同时获取从多个不同视角拍摄的被测物体图像,采用Otsu算法对图像... 从图像中恢复出几何实体的三维形状是计算机视觉研究领域的一个核心课题.本文提出了一种基于单目全景成像的三维重构方法.通过单目多视角全景视觉传感器在一个摄像平面上同时获取从多个不同视角拍摄的被测物体图像,采用Otsu算法对图像进行分割,提取前景信息,用轮廓体素极坐标遍历得到几何实体的轮廓采样点数据,重构出几何实体的三维形状.单目多视角全景视觉传感器避免了通用多视角成像中摄像机的颜色系统以及内外参数难以保持一致的问题,减少了硬件成本和立体匹配的复杂度,增加了实时性;通过轮廓体素极坐标遍历得到物体的三维点云数据是一种明确、不含二义性的信息,具有较好的鲁棒性.通过实际系统应用验证,该方法是一种行之有效的三维重构方法. 展开更多
关键词 以物为中心 单目多视角 三维重构 轮廓体素法
在线阅读 下载PDF
单目视觉下基于三维目标检测的车型识别方法综述 被引量:5
19
作者 王伟 唐心瑶 +1 位作者 宋焕生 张朝阳 《小型微型计算机系统》 CSCD 北大核心 2020年第6期1274-1280,共7页
近年来,车辆三维检测在无人驾驶及智能交通等领域得到了广泛的关注.但当前基于单目视觉的车辆三维检测车型识别方法并没有完善的总结,因此本文对该类方法进行了综述探讨.首先,将基于三维目标检测的车型识别问题分为粗粒度识别和细粒度... 近年来,车辆三维检测在无人驾驶及智能交通等领域得到了广泛的关注.但当前基于单目视觉的车辆三维检测车型识别方法并没有完善的总结,因此本文对该类方法进行了综述探讨.首先,将基于三维目标检测的车型识别问题分为粗粒度识别和细粒度识别两大类,接着根据不同的类别分别回顾了每类问题的发展历程,重点阐述了每类问题中代表性算法的核心思想及优缺点,然后介绍了两类问题中一些常用的公开数据集并且对它们的特点进行了对比,最后讨论了基于三维目标检测的车型识别目前还存在的一些问题和未来的发展前景. 展开更多
关键词 智能交通 车型识别 粗粒度识别 细粒度识别 三维目标检测 单目相机
在线阅读 下载PDF
自动驾驶中的三维目标检测算法研究综述 被引量:11
20
作者 李昌财 陈刚 +2 位作者 侯作勋 黄凯 张伟 《中国图象图形学报》 CSCD 北大核心 2024年第11期3238-3264,共27页
新兴的三维目标检测技术在自动驾驶领域中扮演着关键的角色,它通过提供环境感知和障碍物检测等信息,为自动驾驶系统的决策和控制提供了基础。过去的许多学者对该领域优秀的方法论和成果进行了全面的检验和研究。然而,由于技术上的不断... 新兴的三维目标检测技术在自动驾驶领域中扮演着关键的角色,它通过提供环境感知和障碍物检测等信息,为自动驾驶系统的决策和控制提供了基础。过去的许多学者对该领域优秀的方法论和成果进行了全面的检验和研究。然而,由于技术上的不断更新和快速进步,对该领域的最新进展保持持续跟踪并坚持跟随知识前沿,不仅是学术界的一项至关重要任务,同时也是应对新兴挑战的一项基础。本文回顾了近两年内的新兴成果并针对该方向中的前沿理论进行系统性的阐述。首先,简单介绍三维目标检测的背景知识并回顾相关的综述研究。然后,从数据规模、多样性等方面对KITTI(Karlsruhe Institute of Technology and Toyota Technological Institute at Chicago)等多个流行的数据集进行了归纳总结,并进一步介绍相关基准的评测原理。接下来,按照传感器类型和数量将最近的几十种检测方法划分为基于单目的、基于立体的、基于多视图的、基于激光雷达的、基于多模态5个类别,并根据模型架构或数据预处理方式的不同对每一种类别进行更深层次的细分。在每一种类别的方法中,首先对其代表性算法进行简单回顾,然后着重对该类别中最前沿的方法进行综述介绍,并进一步深入分析了该类别潜在的发展前景和当前面临的严峻挑战。最后展望了三维目标检测领域未来的研究方向。 展开更多
关键词 自动驾驶 三维目标检测 单目 立体 多视图 激光雷达 多模态
原文传递
上一页 1 2 下一页 到第
使用帮助 返回顶部