期刊文献+
共找到389篇文章
< 1 2 20 >
每页显示 20 50 100
基于Vision Transformer的轻量化单目深度估计
1
作者 张凯 唐嘉宁 +2 位作者 李叶嘉 马孟星 周思达 《现代电子技术》 北大核心 2026年第4期64-72,共9页
深度估计能为无人机提供精确的三维环境感知能力,而对边缘设备而言,实时推理与极低的计算资源消耗至关重要。目前大多数单目深度估计网络都侧重于提高在高端GPU上运行时的精度,难以满足边缘设备的实时性要求。为解决该问题,提出一种新... 深度估计能为无人机提供精确的三维环境感知能力,而对边缘设备而言,实时推理与极低的计算资源消耗至关重要。目前大多数单目深度估计网络都侧重于提高在高端GPU上运行时的精度,难以满足边缘设备的实时性要求。为解决该问题,提出一种新型编码器-解码器网络,以实现边缘设备上的实时单目深度估计。所提网络通过一个高效的语义模块合并全局的语义信息,为深度估计提供更多的物体边缘细节;并将基于Transformer的模块集成到编码器-解码器架构的最低分辨率层级,从而大大减少视觉变换器(ViT)的参数。此外,还提出了用于深度解码的Upconv层。该网络在精度和速度之间实现了较好的权衡,通过TensorRT优化,在NVIDIA Jetson Orin设备上具备实时推理性能,优于目前多数先进的实时性算法。 展开更多
关键词 单目深度估计网络 边缘设备 编码器 解码器 Transformer技术 视觉变换器
在线阅读 下载PDF
卷积增强Vision Mamba模型的构建及其应用 被引量:1
2
作者 俞焕友 范静 黄凡 《计算机技术与发展》 2025年第8期45-52,共8页
针对Vision Mamba(Vim)模型的局限性,该文提出了一种改进的模型——Convolutional Vision Mamba(CvM)。此模型通过摒弃Vim中的图形切割和位置编码机制,转而采用卷积操作进行替代,以实现对全局视觉信息的更高效处理。同时,此模型对Vim模... 针对Vision Mamba(Vim)模型的局限性,该文提出了一种改进的模型——Convolutional Vision Mamba(CvM)。此模型通过摒弃Vim中的图形切割和位置编码机制,转而采用卷积操作进行替代,以实现对全局视觉信息的更高效处理。同时,此模型对Vim模型中的位置嵌入模块进行了优化,以解决其固有的高计算量和内存消耗问题。进而,该文将CvM模型应用于医学图像分类领域,选用了血细胞图像、脑肿瘤图像、胸部CT扫描、病理性近视眼底图像以及肺炎X射线影像等数据集进行实验。实验结果表明,与Vim模型及其他5个神经网络模型相比,CvM模型在准确率上表现更为出色,在内存占用和参数数量方面也展现出明显的优势。消融实验表明,深度可分离卷积比标准卷积使用的参数和显存占用更少,而且在血细胞图像、脑肿瘤图像等医学图像分类上,准确率还有了显著提升。这些结果充分说明了CvM模型的优势和可行性。 展开更多
关键词 深度学习 vision Mamba 卷积神经网络 深度可分离卷积 医学图像分类
在线阅读 下载PDF
Monocular Vision-based Two-stage Iterative Algorithm for Relative Position and Attitude Estimation of Docking Spacecraft 被引量:7
3
作者 张世杰 刘峰华 +1 位作者 曹喜滨 贺亮 《Chinese Journal of Aeronautics》 SCIE EI CAS CSCD 2010年第2期204-210,共7页
Visual sensors are used to measure the relative state of the chaser spacecraft to the target spacecraft during close range ren- dezvous phases. This article proposes a two-stage iterative algorithm based on an inverse... Visual sensors are used to measure the relative state of the chaser spacecraft to the target spacecraft during close range ren- dezvous phases. This article proposes a two-stage iterative algorithm based on an inverse projection ray approach to address the relative position and attitude estimation by using feature points and monocular vision. It consists of two stages: absolute orienta- tion and depth recovery. In the first stage, Umeyama's algorithm is used to fit the three-dimensional (3D) model set and estimate the 3D point set while in the second stage, the depths of the observed feature points are estimated. This procedure is repeated until the result converges. Moreover, the effectiveness and convergence of the proposed algorithm are verified through theoreti- cal analysis and mathematical simulation. 展开更多
关键词 SPACECRAFT relative position and attitude monocular vision depth recovery absolute orientation
原文传递
面向泥浆遮挡的涂抹机器人双目视觉定位方法研究
4
作者 左鹏 郑正鼎 +2 位作者 高全杰 吴林飞 王红霞 《工程设计学报》 北大核心 2026年第1期65-75,共11页
为了解决砌筑施工现场泥浆飞溅导致的砖块涂抹面局部遮挡以致涂抹机器人难以快速、精准定位的问题,提出了一种适用于复杂工况的基于机器人双目视觉的砖块涂抹面定位方法。利用YOLOv11实例分割模型提取涂抹面轮廓信息;将轮廓特征与双目... 为了解决砌筑施工现场泥浆飞溅导致的砖块涂抹面局部遮挡以致涂抹机器人难以快速、精准定位的问题,提出了一种适用于复杂工况的基于机器人双目视觉的砖块涂抹面定位方法。利用YOLOv11实例分割模型提取涂抹面轮廓信息;将轮廓特征与双目深度图像结合,构建融合置信度分层与梯度预测的深度修复模型,用以解决泥浆遮挡引起的深度信息缺失、双目成像导致的轮廓边缘模糊等问题;将修复后的深度图像生成高质量点云,并通过平面拟合与最小外接矩形提取涂抹面角点,实现涂抹面三维空间的高精度定位。实验结果表明:在无遮挡工况下,深度修复后涂抹面X、Y、Z向的平均定位误差分别减少17.8%、16.1%和12.6%;在轻度和中度遮挡工况下,三轴平均定位误差分别减少23.8%、21.2%和25.1%;当遮挡率不超过25%时,最大误差均控制在5 mm以内,满足机器人末端操作的精度要求。所提出的方法在相机多姿态变化与中度遮挡工况下具有快速、精准定位的优势,具备良好的工程应用前景,可为涂抹自动化作业提供可靠的视觉感知技术支撑。 展开更多
关键词 双目视觉 深度修复 局部遮挡 涂抹机器人
在线阅读 下载PDF
关键特征感知并行细粒度特征提取的密集行人检测
5
作者 齐向明 刘晓暄 王子键 《计算机工程与应用》 北大核心 2026年第1期297-306,共10页
针对密集行人检测中存在目标密集且相互遮挡问题,提出一种关键特征感知并行细粒度特征提取的密集行人检测算法。以YOLOv8n为基线网络,在vision Transformer中再次加入自注意力机制得到DS-ViT(dual search)深度感知全局关键特征,优化CBS... 针对密集行人检测中存在目标密集且相互遮挡问题,提出一种关键特征感知并行细粒度特征提取的密集行人检测算法。以YOLOv8n为基线网络,在vision Transformer中再次加入自注意力机制得到DS-ViT(dual search)深度感知全局关键特征,优化CBS使用3个3×3Conv,设计双支路加入空间注意力机制得到FE-Conv(feature enhance)增强空间和通道双重特征提取局部细粒度,DS-ViT与FE-Conv并行重构主干网络,增强多尺度特征提取能力;颈部网络输入端嵌入空间注意力机制,增强多层次特征融合;检测网络新增三个卷积层,删减20×20检测头,降低漏检和错检率。在自制数据集上做消融实验和对比实验,与基线网络对比,mAP、Precision、Recall、IoU和FPS分别提高5.4个百分点、4.9个百分点、6.4个百分点、6.2个百分点和6.2,Parameters值仅增加1×10^(5),表明该算法有良好表现。在公开数据集WiderPerson上做泛化实验,较基线网络平均检测精度提升1.6个百分点,表明该算法具备较好鲁棒性。 展开更多
关键词 密集行人检测 关键特征深度感知 细粒度特征双重提取 YOLOv8n 视觉变换器(ViT) CBS
在线阅读 下载PDF
基于频域景深合成和改进SOLOv2模型的羊毛羊绒纤维识别算法
6
作者 叶泽南 李子印 +3 位作者 何健郡 汪小东 叶飞 刘伟红 《纺织学报》 北大核心 2026年第1期80-88,共9页
针对现有羊毛羊绒纤维识别方法中存在的训练数据规模小、对高分辨率图像依赖强以及交错纤维识别效果不佳的问题,提出了一种基于频域景深合成与改进SOLOv2模型的羊毛羊绒纤维识别算法。首先,采集多焦面的羊毛羊绒纤维图像,经过空域滤波... 针对现有羊毛羊绒纤维识别方法中存在的训练数据规模小、对高分辨率图像依赖强以及交错纤维识别效果不佳的问题,提出了一种基于频域景深合成与改进SOLOv2模型的羊毛羊绒纤维识别算法。首先,采集多焦面的羊毛羊绒纤维图像,经过空域滤波与形态学处理提取纤维轮廓特征,随后将图像转换至频域,并利用高斯核算子进行融合,生成高质量纤维图像。在此基础上,对11799张融合后的纤维图像进行准确标注,构建一个大规模、覆盖广泛的羊毛羊绒数据集。在SOLOv2算法的基础上,引入Swin Transformer作为主干网络,以提升局部建模与全局特征提取能力,同时采用PAFPN结构优化特征融合过程,增强多尺度特征表达能力。结合随机裁剪、随机翻转与随机高反差保留3种数据增强策略,进一步提升了模型的泛化性能。最终,在羊毛羊绒纤维数据集上的测试结果表明,所提出的改进SOLOv2模型能够实现对交错纤维的精细化识别,模型的平均准确度高达96.85%,相比SOLOv2模型提高了2.73%。 展开更多
关键词 纤维检测 计算机视觉 景深合成 实例分割 SOLOv2模型 纤维识别 羊毛 羊绒
在线阅读 下载PDF
MSGS:基于深度相机的多规格机器人抓取系统
7
作者 付兰慧 谯未来 +5 位作者 邓辅秦 周磊 侯健峰 冷雄伟 周游 黄广俊 《数据与计算发展前沿(中英文)》 2026年第1期195-206,共12页
【目的】机器视觉被广泛应用于工业场景下的物料识别与分拣等生产过程。当前的一些抓取方法存在抓取效率低、规格单一等问题。【方法】本研究提出一种多规格的机器人抓取系统MSGS(Multi-Specification Grasping System),通过优化YOLOv5... 【目的】机器视觉被广泛应用于工业场景下的物料识别与分拣等生产过程。当前的一些抓取方法存在抓取效率低、规格单一等问题。【方法】本研究提出一种多规格的机器人抓取系统MSGS(Multi-Specification Grasping System),通过优化YOLOv5模型对多种物料进行检测分类,根据不同型号物料的尺寸抓取系统可以自适应控制机械臂末端的伸缩距离,从而适应不同场景下多种尺寸规格的物料分拣任务。【结果】实验表明,检测模型能完成对小特征目标的检测与分类,准确率达到98.3%,mAP为0.993。通过多次进行定位与抓取实验,机械臂末端能根据物料规格伸缩末端距离并完成抓取行为,抓取成功率为100%,平均收缩误差为5 mm。【结论】该抓取系统能够较好地完成多种规格物料的分类、定位与抓取,为工业视觉的发展提供了一定的技术参考。 展开更多
关键词 机器视觉 多规格 目标检测 无序抓取 深度相机 系统
在线阅读 下载PDF
Extracting Depth Information Using a Correlation Matching Algorithm
8
作者 Mahmoud Abdelhamid Jeffery Beers Mohammed Omar 《Journal of Software Engineering and Applications》 2012年第5期304-313,共10页
This manuscript presents a modified algorithm to extract depth information from stereo-vision acquisitions using a correlation based approaches. The main implementation of the proposed method is in the area of autonom... This manuscript presents a modified algorithm to extract depth information from stereo-vision acquisitions using a correlation based approaches. The main implementation of the proposed method is in the area of autonomous Pick & Place, using a robotic manipulator. Current vision-guided robotics is still based on a priori training and teaching steps, and still suffers from long response time. This study uses a stereo triangulation setup where two Charged Coupled Devices CCDs are arranged to acquire the scene from two different perspectives. The study discusses the details to calculate the depth using a correlation matching routine which programmed using a Square Sum Difference SSD algorithm to search for the corresponding points from the left and the right images. The SSD is further modified using an adjustable Region Of Interest ROI along with a center of gravity based calculations. Furthermore, the two perspective images are rectified to reduce the required processing time. The reported error in depth using the modified SSD method is found to be around 1.2 mm. 展开更多
关键词 STEREO-vision depth Passive TRIANGULATION PICK and PLACE
暂未订购
基于深度相机的助残手不同抓取模式的控制方法研究
9
作者 崔建伟 王选杰 杜韩 《传感器与微系统》 北大核心 2025年第8期36-40,共5页
助残手是帮助上肢残疾患者恢复日常生活能力的重要方法,但在目前研究中,助残手一般只有张开和闭合这2种抓取模式,不符合真实的手部动作。为了实现不同的抓取模式,提出了一种基于深度相机的助残手不同抓取模式的控制方法,采用物体信息-... 助残手是帮助上肢残疾患者恢复日常生活能力的重要方法,但在目前研究中,助残手一般只有张开和闭合这2种抓取模式,不符合真实的手部动作。为了实现不同的抓取模式,提出了一种基于深度相机的助残手不同抓取模式的控制方法,采用物体信息-抓取模式映射的策略,帮助用户控制多指助残手对各种日用品进行抓取。通过设计助残手实验,完成了不同抓取模式下6种日常物体的控制动作。实验结果表明:模式识别成功率达到92.83%,验证了基于深度相机助残手不同抓取模式控制方法的可行性和实用性。 展开更多
关键词 助残手控制 计算机视觉 深度相机 抓取模式识别
在线阅读 下载PDF
单目视觉驱动的机器人实时高精度稠密场景重建算法
10
作者 蒋祥龙 邓文亮 何胜喜 《测绘通报》 北大核心 2025年第10期71-75,137,共6页
本文提出一种单目视觉驱动的机器人实时高精度稠密场景重建算法,该算法基于深度稠密单目视觉SLAM和快速不确定性传播技术,从图像中重建三维场景。该算法能够实现场景的稠密、准确和实时三维重建,并对来自单目视觉SLAM的极端噪声深度估... 本文提出一种单目视觉驱动的机器人实时高精度稠密场景重建算法,该算法基于深度稠密单目视觉SLAM和快速不确定性传播技术,从图像中重建三维场景。该算法能够实现场景的稠密、准确和实时三维重建,并对来自单目视觉SLAM的极端噪声深度估计具有良好的稳健性。与传统通过特殊深度滤波器或从RGB-D传感器模型中估计深度不确定性的方法不同,本文方法直接利用SLAM中底层束平差问题的信息矩阵生成概率深度不确定性。这种深度不确定性为体积融合的深度图加权提供了关键信号。本文方法能够生成更加精确且伪影显著减少的三维网格,并在具有挑战性的Euroc数据集上进行了试验验证。结果表明,相比直接从单目视觉SLAM中融合深度的方式,本文方法在建图准确率上提升了85%。 展开更多
关键词 单目视觉 稠密重建 SLAM 深度不确定性 机器人
原文传递
单目深度估计研究综述
11
作者 王诚 李梦媛 李春领 《红外》 2025年第5期1-10,共10页
单目深度估计在三维重建、目标跟踪、场景理解等众多应用中起到非常重要的作用。由于单目摄像头具有成本低、设备较为普及、图像获取方便等特点,从单目图像中获取深度信息成为热门研究。首先概述了用于单目深度估计的常见深度学习模型,... 单目深度估计在三维重建、目标跟踪、场景理解等众多应用中起到非常重要的作用。由于单目摄像头具有成本低、设备较为普及、图像获取方便等特点,从单目图像中获取深度信息成为热门研究。首先概述了用于单目深度估计的常见深度学习模型,主要包括卷积神经网络(Convolutional Neural Network,CNN)、循环神经网络(Recurrent Neural Network,RNN)和生成对抗网络(Generative Adversarial Network,GAN)。然后从训练方法的角度归纳了用于单目深度估计的深度学习方法,并对单目深度估计的发展趋势进行了总结。 展开更多
关键词 单目深度估计 计算机视觉 深度学习
在线阅读 下载PDF
基于双目立体感知和安全区域分割的大型施工机械近电安全距离智能预警方法研究 被引量:2
12
作者 马富齐 王嘉勋 +2 位作者 贾嵘 王波 马恒瑞 《中国电机工程学报》 北大核心 2025年第7期2554-2566,I0009,共14页
大型施工机械是电力检修、改造等作业的重要工具,其近电作业过程的安全距离有严格要求,因此,研究施工机械安全距离智能测量方法对保障本质安全生产意义重大。但其作业过程具有作业范围广、带电环境复杂等特点,现有方法表现出明显局限性... 大型施工机械是电力检修、改造等作业的重要工具,其近电作业过程的安全距离有严格要求,因此,研究施工机械安全距离智能测量方法对保障本质安全生产意义重大。但其作业过程具有作业范围广、带电环境复杂等特点,现有方法表现出明显局限性。为此,该文提出一种基于双目立体感知和安全区域分割的施工机械安全距离智能测量方法。首先,通过PSMNet立体感知模型获取作业场景的双目视差值,并基于坐标转换的三维重建方法得到作业场景的三维世界空间坐标信息;然后,通过区域元素辨识和Canny边缘检测模型精确识别施工机械位置与安全区域边界;最后,通过监测施工机械与安全区域边界间水平和垂直方向的最小欧式距离变化,实现对大型施工机械作业安全距离的量化及动态预警。实验数据表明,所提方法对于实际施工机械复杂场景的三维空间重建平均误差仅3.3%,对于该场景多元化作业元素的识别精确度达到94.5%,相比现有方法表现出更好的检测性能及实用价值。 展开更多
关键词 近电作业 电力深度视觉 安全距离测量 双目立体感知 安全区域分割
原文传递
单/双目深度估计研究进展与应用综述(特邀) 被引量:1
13
作者 胡海洋 陈超平 +4 位作者 高天沐 韩宝恩 杨云帆 刘毅 武小军 《红外与激光工程》 北大核心 2025年第7期25-38,共14页
深度估计作为计算机视觉领域的核心基础任务,在自动驾驶、增强现实、机器人导航等领域具有重要应用价值。文中系统综述了单目与双目深度估计的技术演进、方法体系及其在三维显示等场景中的创新应用。单目方法通过端到端深度学习架构,如... 深度估计作为计算机视觉领域的核心基础任务,在自动驾驶、增强现实、机器人导航等领域具有重要应用价值。文中系统综述了单目与双目深度估计的技术演进、方法体系及其在三维显示等场景中的创新应用。单目方法通过端到端深度学习架构,如多尺度特征融合、注意力机制,突破传统几何先验限制,结合监督或自监督范式缓解数据依赖问题,但受限于尺度模糊性。双目技术依托立体匹配的几何约束,通过代价体积构建与三维卷积网络实现亚像素级视差计算,在动态场景鲁棒性上表现突出。两类技术通过语义几何协同优化形成互补,推动算法从局部特征匹配向全局三维感知升级。在三维显示领域,深度估计技术成为虚实融合的关键:单目方法支撑移动端设备的实时空间拓扑重建,通过轻量化模型实现虚拟物体的物理遮挡与光照一致性渲染;双目技术为高精度全息投影与数字孪生提供毫米级深度支撑,实现动态光场重建。新兴技术如扩散模型和多教师蒸馏框架显著提升弱纹理区域的深度连续性,推动体积显示器渲染质量提升。文中进一步对比分析了主流数据集与评估指标的技术特性,指出未来研究需聚焦多传感器融合、轻量化边缘计算、跨模态评估基准构建及物理可逆渲染等方向。随着神经符号计算等范式的发展,深度估计技术将推动三维显示从几何重构向物理属性推理跃迁,最终实现“所见即所得”的沉浸式体验。 展开更多
关键词 深度估计 计算机视觉 机器学习 三维显示
原文传递
Monocular Vision Based Boundary Avoidance for Non-Invasive Stray Control System for Cattle: A Conceptual Approach
14
作者 Adeniran Ishola Oluwaranti Seun Ayeni 《Journal of Sensor Technology》 2015年第3期63-71,共9页
Building fences to manage the cattle grazing can be very expensive;cost inefficient. These do not provide dynamic control over the area in which the cattle are grazing. Existing virtual fencing techniques for the cont... Building fences to manage the cattle grazing can be very expensive;cost inefficient. These do not provide dynamic control over the area in which the cattle are grazing. Existing virtual fencing techniques for the control of herds of cattle, based on polygon coordinate definition of boundaries is limited in the area of land mass coverage and dynamism. This work seeks to develop a more robust and an improved monocular vision based boundary avoidance for non-invasive stray control system for cattle, with a view to increase land mass coverage in virtual fencing techniques and dynamism. The monocular vision based depth estimation will be modeled using concept of global Fourier Transform (FT) and local Wavelet Transform (WT) of image structure of scenes (boundaries). The magnitude of the global Fourier Transform gives the dominant orientations and textual patterns of the image;while the local Wavelet Transform gives the dominant spectral features of the image and their spatial distribution. Each scene picture or image is defined by features v, which contain the set of global (FT) and local (WT) statistics of the image. Scenes or boundaries distances are given by estimating the depth D by means of the image features v. Sound cues of intensity equivalent to the magnitude of the depth D are applied to the animal ears as stimuli. This brings about the desired control as animals tend to move away from uncomfortable sounds. 展开更多
关键词 MONOCULAR vision Control Systems Global POSITIONING System Wireless Sensor Networks depth Estimation
暂未订购
基于融合拉普拉斯残差图像处理的输电线路巡检单目测距技术 被引量:1
15
作者 李勃铖 杨昊彦 +4 位作者 刘钢 郭昊 刘兰兰 李赛 席燕辉 《湖南电力》 2025年第3期122-128,共7页
在对超、特高压输电线路开展无人机巡检时,无人机能靠近输电线路,但距离过近会增加飞行干扰甚至发生碰撞,因此准确获取无人机与输电线之间的距离至关重要。针对这一问题,提出融合拉普拉斯残差的深度估计网络LapNet(Laplace net),以U-Ne... 在对超、特高压输电线路开展无人机巡检时,无人机能靠近输电线路,但距离过近会增加飞行干扰甚至发生碰撞,因此准确获取无人机与输电线之间的距离至关重要。针对这一问题,提出融合拉普拉斯残差的深度估计网络LapNet(Laplace net),以U-Net作为网络的基础架构,构建多尺度特征金字塔,提出LUB(Laplace UBlock)模块,替换U-Net的普通卷积层;在LUB模块中引入拉普拉斯金字塔残差结构,增加网络深度的同时保留深度特征中的高频信息,从而引导重建高质量的深度图像,实现单目距离的精确测量。实际测试结果表明,利用无人机单目镜头开展距离检测的平均误差为4.786%,最大误差为8.36%,能够实现无人机镜头与输电线路之间距离的精确测量。 展开更多
关键词 单目视觉 深度估计 拉普拉斯金字塔 LapNet 无人机巡检
在线阅读 下载PDF
温室番茄场景单目RGB模态向深度模态转换模型研究 被引量:1
16
作者 高旺 邓寒冰 +1 位作者 邢志鸿 朱彦强 《农业机械学报》 北大核心 2025年第6期499-508,574,共11页
在温室场景下,针对番茄的表型解析、自主采摘、多模态联合分割等任务,快速、高精度、低成本地获取场景深度信息对农机视觉系统至关重要。本研究提出了一种嵌入注意力机制的RGB模态向深度模态转换的单目深度估计网络(RGB to depth conver... 在温室场景下,针对番茄的表型解析、自主采摘、多模态联合分割等任务,快速、高精度、低成本地获取场景深度信息对农机视觉系统至关重要。本研究提出了一种嵌入注意力机制的RGB模态向深度模态转换的单目深度估计网络(RGB to depth conversion network,RDCN),以解决传统算法无法充分挖掘编码器的特征提取能力、深度估计精度低以及边界模糊问题。首先以ResNext101替换原来的ResNet101骨干网络,提取各个不同层级的特征图并将其融合到拉普拉斯金字塔分支,强调特征的尺度差异性并强化特征融合的深入与广泛性;同时为了增强模型获取全局信息以及上下文信息交互的能力,引入了置换注意力模块(Shuffle attention module,SAM),以减少下采样过程造成的局部细节信息丢失;其次,为了改善预测深度图的边界模糊问题,嵌入深度细化模块(Depth refinement module,DRM),感知预测特征图物体附近的深度变化;实现了温室场景下番茄植株图像深度信息的精准预测。试验结果表明,RDCN在测试集上的平均相对误差、均方根误差、对数均方根误差、对数平均误差相比于基准模型分别降低了20.5%、10.3%、8.3%、21.8%,在1.25、1.25~2、1.25~3阈值下的准确率分别提高3.2%、1.2%和1.0%;并且网络生成的深度图像视觉上全局完整清晰且有较多的纹理细节;研究表明,RDCN在温室场景下能够基于RGB信息获得高质量的深度信息,可为基于单目传感器的温室场景农机导航以及深度图像在多模态任务中的应用提供技术支持。 展开更多
关键词 温室 番茄图像 单目视觉 深度估计 拉普拉斯金字塔 模态转换
在线阅读 下载PDF
复杂背景下草莓点云语义分割优化方法 被引量:1
17
作者 谢元澄 陈自强 +3 位作者 许忠义 严心悦 姜海燕 梁敬东 《南京农业大学学报》 北大核心 2025年第2期476-487,共12页
[目的]针对田间背景噪声干扰、草莓果实体积小且伴随遮挡的难点,本文利用3D视觉技术实现草莓准确识别和定位,为机器人自动采摘提供技术支持。[方法]使用Intel Realsense D435i深度相机采集不同光照、季节和遮挡条件下的草莓点云数据,构... [目的]针对田间背景噪声干扰、草莓果实体积小且伴随遮挡的难点,本文利用3D视觉技术实现草莓准确识别和定位,为机器人自动采摘提供技术支持。[方法]使用Intel Realsense D435i深度相机采集不同光照、季节和遮挡条件下的草莓点云数据,构建包含3个类别的数据集,分别为无遮挡、低遮挡、高遮挡。结合多阈值统计滤波和ROI提取技术对点云数据进行预处理,过滤噪声;以PointNet++为基础模型,对点云数据直接提取特征,并在PointNet++基础上提出一种针对复杂背景下小尺度目标的语义分割模型SS-PointNet++,利用点云的多种特征信息作为网络输入特征,构建采样层、分组层,并通过PointNet提取局部特征,使用最远点采样法对点云取样并最大程度覆盖到整个点集,针对小尺度目标设计3种不同半径的球查询(ball query)来获取局部特征,改进SA层和FP层的结构,使其能够适应低密度点云。[结果]对未经预处理的点云进行分割时,有0.74%的概率出现离群点的误判问题,而对预处理后的单张点云图像进行语义分割的用时平均减少了3.47 s。点云图像测试结果表明,SS-PointNet++模型的平均准确率达到86.95%,比优化前提升了19.54百分点,平均交并比为0.740。在光照充足且无遮挡的草莓上,该模型的语义分割准确率高达95.36%,而在暗光环境下,该模型的平均准确率也能达到81.34%。[结论]SS-PointNet++模型提升了小尺度目标点云的语义分割效果,对不同光照条件具有较强的鲁棒性,为基于3D点云的小物体和遮挡物体分割提供了一种有效的方法;本文提出的草莓遮挡类型的划分方法,对后续草莓遮挡问题提供了数据分析支持,对其他基于3D点云的小尺度物体的目标检测和遮挡问题也起到借鉴作用。 展开更多
关键词 草莓 点云 采摘机器人 计算机视觉 语义分割 深度相机
在线阅读 下载PDF
面向机械臂抓取的双目视觉目标定位算法
18
作者 蒋畅江 向杰 何旭颖 《计算机应用》 北大核心 2025年第11期3698-3706,共9页
通过机器视觉算法对目标进行识别并定位它的空间坐标是实现机械臂视觉抓取的关键。针对基于双目视觉的目标识别与定位中定位精度低、运行效率不高等问题,提出面向机械臂抓取的联合双目视觉目标检测与立体深度估计的网络结构BDS-YOLO(Bin... 通过机器视觉算法对目标进行识别并定位它的空间坐标是实现机械臂视觉抓取的关键。针对基于双目视觉的目标识别与定位中定位精度低、运行效率不高等问题,提出面向机械臂抓取的联合双目视觉目标检测与立体深度估计的网络结构BDS-YOLO(Binocular Detect and Stereo YOLO)及基于BDS-YOLO的目标定位算法。该算法联合目标检测与立体深度估计算法,利用注意力机制进行跨视图特征信息交互,从而提高特征表达能力,使网络可以通过深度特征匹配获得高质量视差图,再经过自注意力机制进一步提升后,由三角测量原理转换为深度信息。BDS-YOLO网络采用多任务学习,同时训练目标检测与立体深度估计网络,并使用合成与真实数据共同训练。针对真实数据不易标注密集深度的问题,采用自监督学习技术优化由视差重建图像的过程,以提高BDS-YOLO网络对现实世界的泛化能力。实验结果表明:BDS-YOLO网络在真实数据集上对目标检测的平均精度(AP)比YOLOv8l高6.5个百分点,预测的视差和转换后的深度优于专门的立体深度估计算法,推理速度可达20 frame/s以上,对目标对象的识别和定位均优于对比方法,能较好地满足目标实时检测与定位的需求。 展开更多
关键词 双目视觉 目标检测 立体匹配 立体深度估计 目标定位 深度学习 注意力机制
在线阅读 下载PDF
面向透明液体液位测量的立体匹配算法研究
19
作者 孙超奇 任勇峰 +3 位作者 陈建军 崔大鹏 王鹏 冯华 《传感器与微系统》 北大核心 2025年第12期150-153,158,共5页
机器视觉液位测量因其非接触、高精度、体积小、适应多种液体等优势,正成为未来液位检测技术的重要发展方向。然而,其高成本与复杂的部署条件仍限制了实际应用推广。为此,提出一种基于双目立体视觉的透明液体液位测量方法。该方法采用... 机器视觉液位测量因其非接触、高精度、体积小、适应多种液体等优势,正成为未来液位检测技术的重要发展方向。然而,其高成本与复杂的部署条件仍限制了实际应用推广。为此,提出一种基于双目立体视觉的透明液体液位测量方法。该方法采用改进的循环全对场变换立体匹配方法(RAFT-Stereo)网络结构,在特征提取阶段引入通道注意力机制,并结合区域加权损失函数以提升透明和弱纹理区域的匹配精度。实验结果表明,改进网络在SynClearDepth数据集上取得了0.53的平均端点误差(EPE)和9.61%的Bad—3.0指标。在透明液体液位高度测量实验中,测量平均误差为1.68 cm,较原始模型降低约78.3%,能够满足实际液位测量的精度需求。 展开更多
关键词 液位测量 双目视觉 深度估计 注意力机制 立体匹配
在线阅读 下载PDF
基于多尺度感受野的水下双目视觉测距算法研究
20
作者 涂天佳 秦毅 +1 位作者 梁晨 陈然 《兵器装备工程学报》 北大核心 2025年第8期11-19,共9页
基于双目视觉的立体匹配网络被广泛应用于目标定位,其计算速度和精度直接影响机器人的任务执行。针对现有立体匹配网络参数冗余、计算速度缓慢等问题,提出利用混合空洞卷积替代特征提取部分的普通卷积层,减少网络层数,极大地降低了网络... 基于双目视觉的立体匹配网络被广泛应用于目标定位,其计算速度和精度直接影响机器人的任务执行。针对现有立体匹配网络参数冗余、计算速度缓慢等问题,提出利用混合空洞卷积替代特征提取部分的普通卷积层,减少网络层数,极大地降低了网络参数量,提升了网络的运行速度。为增强网络在弱纹理、边缘区域的特征表达能力,提出一种多尺度感受野模块,以融合不同尺度感受野的特征。将该模块嵌入立体匹配网络,构建了多尺度感受野立体匹配网络,实现了目标位置信息的精确检测。基于所提网络和校正模型,在水池模拟环境下开展了水下机器人的目标定位实验。结果表明,所提方法有效解决了现有立体匹配网络在弱纹理、重叠以及边缘区域的误匹配问题,对特定目标物定位精度可达89%,较其他主流视觉测量方法均有显著提升,在水下目标定位中具有重要应用价值。 展开更多
关键词 双目视觉 深度估计 立体匹配 水下机器人 混合空洞卷积 多尺度
在线阅读 下载PDF
上一页 1 2 20 下一页 到第
使用帮助 返回顶部