期刊文献+
共找到132篇文章
< 1 2 7 >
每页显示 20 50 100
基于Stereo RCNN的锚引导3D目标检测算法 被引量:8
1
作者 曹杰程 陶重犇 《仪器仪表学报》 EI CAS CSCD 北大核心 2021年第12期191-201,共11页
针对当前基于锚的双目3D目标检测算法存在的锚点数量选取较多,从而影响在线计算速度的问题,提出了一种基于Stereo RCNN的锚引导3D目标检测算法FGAS RCNN。在第1阶段中,输入左右图像分别生成相应的概率图以生成稀疏锚点及稀疏锚框,再通... 针对当前基于锚的双目3D目标检测算法存在的锚点数量选取较多,从而影响在线计算速度的问题,提出了一种基于Stereo RCNN的锚引导3D目标检测算法FGAS RCNN。在第1阶段中,输入左右图像分别生成相应的概率图以生成稀疏锚点及稀疏锚框,再通过将左右锚作为一个整体生成2D预选框。第2阶段的关键点生成网络利用稀疏锚点信息生成关键点热图,并结合立体回归器融合生成3D预选框。针对原始图像在卷积后会出现像素级信息丢失的问题,通过Mask Branch生成的实例分割掩模结合实例级视差估计进行像素级优化。实验表明,在没有任何深度和位置先验信息输入的情况下,此方法依旧可以在减少计算量的同时保持较高的召回率。具体来说,此方法在以0.7为阈值的3D目标检测上平均精度为44.07%。相比于Stereo RCNN,本文方法在平均精度上提高了4.5%。与此同时,此方法的整体运行时间较Stereo RCNN缩短了0.09 s。 展开更多
关键词 3D目标检测 立体视觉 关键点检测 稀疏锚点 实例分割
原文传递
3D feature extraction of head based on target region matching
2
作者 YU Hai-bin LIU Ji-lin LIU Jing-bia 《通讯和计算机(中英文版)》 2008年第5期1-6,共6页
关键词 3D技术 区域匹配 计算机技术 MSF
在线阅读 下载PDF
双目立体视觉技术及其在智慧农业中的应用研究进展 被引量:7
3
作者 杨学军 钟金彪 +3 位作者 林开颜 吴军辉 陈杰 司慧萍 《农业工程学报》 北大核心 2025年第1期27-39,共13页
双目立体视觉技术作为一种获取现实世界立体感知的重要方法,可以实现农业场景目标的三维定位和点云重建,提取立体三维信息,具有很大的应用潜力。该文介绍了双目立体视觉技术的应用流程,包括双目视觉标定、极线校正、立体匹配等方面,以... 双目立体视觉技术作为一种获取现实世界立体感知的重要方法,可以实现农业场景目标的三维定位和点云重建,提取立体三维信息,具有很大的应用潜力。该文介绍了双目立体视觉技术的应用流程,包括双目视觉标定、极线校正、立体匹配等方面,以及相关研究进展;综合近期文献,探讨了双目立体视觉技术在果实定位采摘与地图导航、生长参数测量和病害识别与施药等农业领域最新的应用。综述结果表明,双目立体视觉技术在农业中定位、测量和识别均具有较高精度,但仍面临模型复杂、场景受限、数据集少和立体匹配缺少评价标准等问题。展望该技术在农业领域的未来发展,应着重从算法设计与优化、智能辅助平台搭建、数据集构建和评价体系完善等方面开展研究探索。 展开更多
关键词 双目视觉 智慧农业 立体匹配 作物参数测量 三维目标定位 病害识别
在线阅读 下载PDF
基于双目视觉的四足机器人环境感知研究 被引量:1
4
作者 王宵 胡宁宁 +2 位作者 张鹏程 王佳 袁冬莉 《火力与指挥控制》 北大核心 2025年第7期192-198,207,共8页
为提升四足机器人环境感知能力,考虑移动平台算力约束,基于深度学习的立体匹配算法,设计了四足机器人平台上实时运行的双目视觉测距算法;提出能适配移动计算平台的改进YOLOv4-tiny目标检测算法。融合两种算法实现了机器人测量出距物体... 为提升四足机器人环境感知能力,考虑移动平台算力约束,基于深度学习的立体匹配算法,设计了四足机器人平台上实时运行的双目视觉测距算法;提出能适配移动计算平台的改进YOLOv4-tiny目标检测算法。融合两种算法实现了机器人测量出距物体距离的同时识别物体类别。实验结果表明,10 m内测距误差低于5%,平均帧率达19.2 FPS,能够为四足机器人提供较精确的环境信息。 展开更多
关键词 双目测距 立体匹配 目标检测 深度学习 四足机器人
在线阅读 下载PDF
基于编码立体靶标的单轴转台标定方法
5
作者 王昊天 王鹏 +2 位作者 李岳 魏家起 付鲁华 《仪器仪表学报》 北大核心 2025年第7期171-182,共12页
针对目前单轴转台标定存在流程繁琐且精度较低的问题,在深入剖析转台标定原理的基础上,设计一种新型编码立体靶标,并提出高精度转台参数多约束优化方法,用于提高单轴转台标定的效率和精度。首先,靶标整合3个含有编码特征点的不同位置姿... 针对目前单轴转台标定存在流程繁琐且精度较低的问题,在深入剖析转台标定原理的基础上,设计一种新型编码立体靶标,并提出高精度转台参数多约束优化方法,用于提高单轴转台标定的效率和精度。首先,靶标整合3个含有编码特征点的不同位置姿态的正方形平面,利用编码的唯一性可准确确定出各个平面的位姿变化情况,只需对靶标位姿进行一次调整,即可标定出转台的参数,显著简化了标定流程;其次,设计了编码特征点识别与处理算法,通过生成自适应椭圆掩膜,实现目标特征点的鲁棒分离,从而稳定、准确地识别编码特征点并完成解码,具备较强的鲁棒性;最后,设计了高精度转台参数多约束优化方法,结合点位约束、共面约束和法向量夹角约束建立目标函数,设置了权重参数,对转台标定参数进行优化,提高了标定精度。实验结果显示,使用所提方法标定转台,只需调整一次靶标位姿,即可使标定精度达到0.021 mm,与传统方法相比,精度可提高约36.363%。同时,根据标定结果拼接标准球,精度可达0.025 mm,相比于传统算法,误差约下降16.667%,进一步验证了该方法的可行性。此外,面对不同水平噪声时,所提优化算法可保持较为稳定的优化结果,展现出较好的鲁棒性。 展开更多
关键词 转台标定 编码立体靶标 多约束优化 精密测量
原文传递
基于深度相机的机器人目标定位 被引量:1
6
作者 李彦龙 王加泽 +1 位作者 杨乐平 张健滔 《工业控制计算机》 2025年第3期19-21,共3页
果蔬采摘机器人获取果蔬目标在空间的具体位置是实现采摘工作的重要一步。针对番茄采摘机器人目标定位的要求,研究了基于深度相机获取番茄在相机坐标系下的三维坐标信息。建立了相机参考坐标系,对深度相机进行了棋盘格标定,以获取其内... 果蔬采摘机器人获取果蔬目标在空间的具体位置是实现采摘工作的重要一步。针对番茄采摘机器人目标定位的要求,研究了基于深度相机获取番茄在相机坐标系下的三维坐标信息。建立了相机参考坐标系,对深度相机进行了棋盘格标定,以获取其内参矩阵。研究了深度相机的彩色图像与深度图像对齐方法,并结合内参矩阵求解出番茄在相机坐标系下的空间三维坐标。通过试验测试了深度相机获取番茄空间坐标的定位精度,结果表明其能满足机器人采摘的需求。 展开更多
关键词 机器视觉 机器人 目标定位 立体匹配 标定
在线阅读 下载PDF
基于双目立体视觉的盲人避障技术研究 被引量:1
7
作者 王新 谷亚东 《电子测量技术》 北大核心 2025年第7期98-106,共9页
为保障盲人安全出行,针对盲道占用、破损及无盲道等问题,提出一种结合目标检测和双目立体视觉的盲人避障方法。首先,通过双目相机采集人行道信息,利用改进的YOLOv8s模型对人行道上的障碍物进行检测。然后,使用改进的立体匹配算法对障碍... 为保障盲人安全出行,针对盲道占用、破损及无盲道等问题,提出一种结合目标检测和双目立体视觉的盲人避障方法。首先,通过双目相机采集人行道信息,利用改进的YOLOv8s模型对人行道上的障碍物进行检测。然后,使用改进的立体匹配算法对障碍物进行匹配,该方法使用自适应阈值的FAST算法在尺度空间上寻找特征点,同时使用最小二乘法获取特征点的亚像素级坐标,并对特征描述符进行降维处理。最后,通过理想双目模型将二维像素坐标转化为三维空间坐标,获取障碍物的深度值。实验证明,在10 m的范围内,避障系统可以精确识别障碍物的种类,且FPS可以达到149.1;在测量障碍物深度时,其最大误差控制在5.6%以内,FPS可以达到3.8,满足盲人避障所需的实时性和距离准确度的要求。 展开更多
关键词 目标检测 深度学习 立体匹配 双目测距 盲人避障
原文传递
基于YOLOv9-SOEP与双目立体视觉的输电线路山火火焰高度测量
8
作者 赖东阳 邱志斌 +4 位作者 杨泽鼎 叶俊 罗瑞杰 彭添浩 周硕伦 《电子测量与仪器学报》 北大核心 2025年第8期258-268,共11页
针对输电线路山火监测与风险预警中火焰高度测量困难的技术难题,提出一种融合YOLOv9-SOEP算法和双目立体视觉的输电线路山火火焰高度测量方法。该方法在YOLOv9网络架构的基础上引入小目标检测增强金字塔(SOEP)模块,构建了适用于输电线... 针对输电线路山火监测与风险预警中火焰高度测量困难的技术难题,提出一种融合YOLOv9-SOEP算法和双目立体视觉的输电线路山火火焰高度测量方法。该方法在YOLOv9网络架构的基础上引入小目标检测增强金字塔(SOEP)模块,构建了适用于输电线路山火场景的YOLOv9-SOEP改进目标检测算法;针对火焰图像纹理特征弱的问题,采用相位一致性方法实现山火双目图像的高精度特征点提取与匹配;最后通过特征点三维坐标转换与像素比例计算,建立了完整的输电线路山火火焰高度测量模型。实验结果表明,改进后的YOLOv9-SOEP目标检测模型在平均精度和召回率上分别达到了85%和89%,相比于原模型分别提升4%和19%,有效解决了小目标火焰漏检的问题;基于相位一致性的立体匹配方法能够较好地保留深度图中火焰目标的细节特征,在保证特征点充足的前提下匹配准确率达到了92%;在模拟山火火焰高度测量实验中,火焰高度的测量误差控制在6.48%以内,所提方法为输电线路山火监测与风险预警提供了可靠的火焰高度测量解决方案。 展开更多
关键词 双目立体视觉 相位一致性 山火测高 目标检测
原文传递
牛场动态目标双目立体图像深度学习训练数据集
9
作者 李世杰 曹姗姗 +3 位作者 金庆同 刘婷婷 孙伟 孔繁涛 《中国科学数据(中英文网络版)》 2025年第3期580-588,共9页
随着新一代信息技术与畜牧业的融合发展,基于机器视觉的非接触式牛只个体身份识别、异常行为检测等技术正逐步成为智慧畜牧的重要手段。为支持深度学习在实际养殖环境中的应用,本研究构建了一个来源于真实养牛场的双目立体视觉图像数据... 随着新一代信息技术与畜牧业的融合发展,基于机器视觉的非接触式牛只个体身份识别、异常行为检测等技术正逐步成为智慧畜牧的重要手段。为支持深度学习在实际养殖环境中的应用,本研究构建了一个来源于真实养牛场的双目立体视觉图像数据集。数据集使用ZED2i相机采集,包含551组同步的左/右视角图像,涵盖不同时段(上午、下午),不同光照(顺光、逆光),不同饲养阶段的牛只个体、群体活动及与行人交互等多种典型场景,适用于牛只目标检测、行为识别、深度估计与场景理解等研究任务。为提升数据质量与泛化能力,数据集中引入图像模糊检测、质量筛选与多轮数据增强策略。本数据集真实反映了自然养殖环境下的牛场动态目标视觉感知特征,为畜牧智能监测系统的开发与深度学习模型的训练提供了高质量的数据支持。 展开更多
关键词 牛场动态目标 双目立体视觉 典型场景 智能养殖 深度学习
在线阅读 下载PDF
基于改进CSRT目标追踪算法的双目实时测距系统研究
10
作者 崔大鹏 李敏 《黑龙江科学》 2025年第16期71-74,共4页
随着双目立体视觉技术的迅猛发展,双目测距与目标追踪技术相结合的需求也越来越大,研究并实现了一种基于改进CSRT目标追踪算法的双目实时测距系统,不需要大量计算资源实现了实时目标跟踪及测距。通过双目相机标定、立体校正、立体匹配... 随着双目立体视觉技术的迅猛发展,双目测距与目标追踪技术相结合的需求也越来越大,研究并实现了一种基于改进CSRT目标追踪算法的双目实时测距系统,不需要大量计算资源实现了实时目标跟踪及测距。通过双目相机标定、立体校正、立体匹配等步骤得到左右相机图像的视差图,再转换为深度图,实现实时测距部分。通过创建跟踪器,可在任意帧通过按键获得当前帧窗口,选择要跟踪的目标对象,在实时窗口中实现实时跟踪目标运动情况,并在跟踪框旁边显示跟踪目标距离摄像头的实时距离。实验结果表明,结合经典目标追踪算法的实时测距系统在物体低速运动状态下实时测距及跟随情况表现良好。 展开更多
关键词 双目实时测距 立体匹配 CSRT算法 目标追踪
在线阅读 下载PDF
基于单目视觉的姿态自动测量方法 被引量:26
11
作者 劳达宝 张慧娟 +1 位作者 熊芝 周维虎 《光子学报》 EI CAS CSCD 北大核心 2019年第3期159-165,共7页
提出一种将EPnP算法和SoftPOSIT算法融合的单目视觉姿态自动测量方法.首先,利用EPnP算法计算得到立体靶标的位姿参数,并将该位姿参数作为SoftPOSIT算法的迭代初始值带入.其次,将SoftPOSIT算法计算位姿的的迭代过程与立体靶标结合,实现... 提出一种将EPnP算法和SoftPOSIT算法融合的单目视觉姿态自动测量方法.首先,利用EPnP算法计算得到立体靶标的位姿参数,并将该位姿参数作为SoftPOSIT算法的迭代初始值带入.其次,将SoftPOSIT算法计算位姿的的迭代过程与立体靶标结合,实现姿态的自动测量,并仿真验证了拓扑确定位姿的有效性.最后,为了验证姿态测量结果的精度,以高精度二维转台为基准,将立体靶标安装在二维转台中,通过控制转台转动角度得到靶标姿态的测量数据.实验结果表明,当转台转动角度在[-20°,20°]时,靶标姿态角α的测量结果标准差为0.20°,姿态角β的测量结果标准差为0.27°. 展开更多
关键词 单目视觉 姿态测量 EPnP SoftPOSIT 立体靶标
在线阅读 下载PDF
基于线结构光视觉的番茄重叠果实识别定位方法研究 被引量:21
12
作者 冯青春 程伟 +2 位作者 杨庆华 荀一 王秀 《中国农业大学学报》 CAS CSCD 北大核心 2015年第4期100-106,共7页
为实现番茄自动化采收,针对温室光照条件多变、背景复杂及果实簇生遮挡的特征,构建了基于线结构光视觉的番茄果实识别定位视觉系统,并提出了一种针对簇生重叠果实的区域分割方法。在(2R-G-B)色差模型下利用动态阈值分割,提取成熟果实区... 为实现番茄自动化采收,针对温室光照条件多变、背景复杂及果实簇生遮挡的特征,构建了基于线结构光视觉的番茄果实识别定位视觉系统,并提出了一种针对簇生重叠果实的区域分割方法。在(2R-G-B)色差模型下利用动态阈值分割,提取成熟果实区域;计算亮度渐变梯度向量,采用灰度重心法提取结构光条纹中心线;基于线结构光立体测量原理,在光条纹扫描视场过程中实时获取成熟果实表面三维信息,并映射形成果实表面与相机光心距离深度图像,实现簇生重叠果实区域的立体分割;基于果实表面激光条纹点空间坐标拟合果实外接球体,获取果实形态和空间坐标信息;试验结果表明,视觉系统单次识别测量耗时2.8s,果实直径测量误差小于6mm,果实与摄像机中心距测量误差小于8mm。 展开更多
关键词 番茄采摘机器人 线结构光 立体视觉 果实遮挡
原文传递
非合作航天器的相对位姿测量 被引量:32
13
作者 徐文福 刘宇 +2 位作者 梁斌 李成 强文义 《光学精密工程》 EI CAS CSCD 北大核心 2009年第7期1570-1581,共12页
为了解决在轨维护和轨道垃圾清除中非合作目标的识别问题,提出了基于立体视觉的位姿(位置和姿态)测量方法。采用中值滤波器对原始图像进行平滑,去除星空背景干扰和其它噪声;将Canny边沿检测器用于对平滑后的图像进行检测,得到包含边沿... 为了解决在轨维护和轨道垃圾清除中非合作目标的识别问题,提出了基于立体视觉的位姿(位置和姿态)测量方法。采用中值滤波器对原始图像进行平滑,去除星空背景干扰和其它噪声;将Canny边沿检测器用于对平滑后的图像进行检测,得到包含边沿信息的二值图像。然后,对该二值图像进行Hough变换,提取待识别对象的直线特征,并计算直线间的交点。最后,对所提取的左、右相机图像的点特征进行3D重构,得到各点在世界坐标系中的坐标,并据此建立目标坐标系,求出其相对于世界坐标系的位置和姿态。仿真结果表明,对于较远距离(>2.5m),位置测量精度优于40mm,而近距离内(<2.0m)优于10mm,相对姿态精度优于2°,基本满足对非合作目标进行跟踪、接近、绕飞等位姿测量要求。 展开更多
关键词 非合作目标 立体视觉 位姿测量 交会对接
在线阅读 下载PDF
针对机器人位姿测量立体标靶的单目视觉标定方法 被引量:11
14
作者 张旭 魏鹏 《红外与激光工程》 EI CSCD 北大核心 2017年第11期211-219,共9页
工业机器人末端位姿测量对机器人装配和机器人标定等工作具有重要价值。针对机器人位姿测量中常用标靶受环境光干扰较大、机器人运动空间有限等缺点设计了一款亮度可调、响应迅速的六面体立体标靶,并提出一种基于单目视觉的立体标靶标... 工业机器人末端位姿测量对机器人装配和机器人标定等工作具有重要价值。针对机器人位姿测量中常用标靶受环境光干扰较大、机器人运动空间有限等缺点设计了一款亮度可调、响应迅速的六面体立体标靶,并提出一种基于单目视觉的立体标靶标定方法。通过初始图像对的选择,解决单目视觉中本质矩阵分解得到的平移向量不精确的问题,并采用光束平差法对初始图像场景进行优化;向场景中添加新图像并使用光束平差法对场景进行全局优化,提高特征点重建精度;以精度为5μm的平面标定板上的特征点作为真实点,解决单目视觉重建场景缺乏尺度因子的问题。实验表明:特征点三维重建的平均误差小于0.035 mm,能够有效进行立体标靶的标定;使用该标靶计算的机器人位姿信息,将机器的位置精度提高了37%。 展开更多
关键词 立体标靶标定 立体标靶 特征面识别 场景重建
原文传递
构建虚拟立体靶标的大视场高精度视觉标定 被引量:8
15
作者 张曦 程东勤 李伟 《光学精密工程》 EI CAS CSCD 北大核心 2017年第4期891-899,共9页
为了提高立体视觉系统在大视场下的测量精度,基于误差溯源思想提出了一种构建虚拟立体靶标的大视场高精度视觉系统标定方法,克服了大尺寸高精度标定物难以制造等问题。对影响立体视觉系统测量精度的主要因素进行分析,列出视觉测量系统... 为了提高立体视觉系统在大视场下的测量精度,基于误差溯源思想提出了一种构建虚拟立体靶标的大视场高精度视觉系统标定方法,克服了大尺寸高精度标定物难以制造等问题。对影响立体视觉系统测量精度的主要因素进行分析,列出视觉测量系统的误差溯源链,解析了大视场视觉系统精度瓶颈的原因。借助激光跟踪仪,运用非线性最小二乘单位四元数算法求解坐标系刚体变换,获取大范围高精度的空间点阵,构建虚拟靶标。在相机畸变模型中考虑了三阶径向畸变和二阶切向畸变参数,并使用Levenberg-Marquardt迭代算法进行标定参数求解,进一步提高系统精度。实验构建了一套测量空间约为4m×3m×2m的双目立体视觉系统,通过对某型号高精度直线导轨进行点距测量,在测量距离3m处,152组不同长度的横向距离测量的误差算术均值为-0.003mm,误差标准差为0.08mm。测量精度相较于传统的平面标定法有较大提升。 展开更多
关键词 立体视觉测量 误差溯源 虚拟立体靶标 大视场 摄像机标定
在线阅读 下载PDF
主动光立体标靶检测及其在工业机器人位姿测量中的应用 被引量:7
16
作者 张旭 郑泽龙 《中国机械工程》 EI CAS CSCD 北大核心 2016年第19期2594-2601,共8页
基于工业机器人位姿视觉测量方法提出了用主动光立体标靶进行机器人末端位姿测量的方法。以主动红外光代替反光标志点,以主动光图案特征代替亮度特征作为表达位置信息的形式,设计了六面体主动光标靶。通过合理设置特征面图案,使立体标... 基于工业机器人位姿视觉测量方法提出了用主动光立体标靶进行机器人末端位姿测量的方法。以主动红外光代替反光标志点,以主动光图案特征代替亮度特征作为表达位置信息的形式,设计了六面体主动光标靶。通过合理设置特征面图案,使立体标靶特征面提供蕴含空间几何约束的信息,并在此基础上设计了特征面识别算法。在室内环境、室外环境、混合光环境等实验条件下,该算法可实现对主动标靶健壮的识别和定位。在高精度四轴移动平台上的测量误差评价实验表明:运用该标靶的立体视觉系统在0.5~3m工作范围内平均位置误差为0.0857mm,平均姿态误差为0.1086°,满足机器人位姿测量的要求。最后在YASKAWA的Motoman-MH80六轴机械臂上进行了机器人末端位姿的测量实验,验证了该方法的可行性和高效性。 展开更多
关键词 机器人位姿测量 视觉测量 特征识别 主动光立体标靶
在线阅读 下载PDF
一种非合作目标相对位置和姿态确定方法 被引量:18
17
作者 周军 白博 于晓洲 《宇航学报》 EI CAS CSCD 北大核心 2011年第3期516-521,共6页
针对非合作目标中的从星若无法获得主星的动态信息时,就无法自主进行相对位置和姿态确定的问题,提出了一种采用陀螺、立体视觉系统和加速度计的相对状态确定方法。首先分别建立相对姿态方程、主星动力学方程和相对位置方程等系统的数学... 针对非合作目标中的从星若无法获得主星的动态信息时,就无法自主进行相对位置和姿态确定的问题,提出了一种采用陀螺、立体视觉系统和加速度计的相对状态确定方法。首先分别建立相对姿态方程、主星动力学方程和相对位置方程等系统的数学模型。然后根据这些方程组成的状态方程和立体视觉系统的测量模型设计了卡尔曼滤波器。该滤波器使得从星根据加速度计、陀螺和立体视觉系统的输出,在仅获得主星的外观特征和一些静态参数的情况下,能够自主进行相对位置和姿态的确定。最后,数值仿真结果表明,在相同仿真条件下,与使用主星陀螺信息的相对状态确定算法相比,该算法能够自主进行相对状态的确定,且位置和姿态稳态误差分别为0.05m和2°。 展开更多
关键词 非合作目标 立体视觉 相对状态确定
在线阅读 下载PDF
基于双目云台相机的目标跟踪系统建模与仿真 被引量:6
18
作者 夏候凯顺 陈善星 邬依林 《系统仿真学报》 CAS CSCD 北大核心 2015年第2期362-368,共7页
对双目云台相机目标跟踪系统的各个环节建立数学模型。采用扩展Kalman滤波(Extended Kalman Filter,EKF)作为定位跟踪算法,利用双目云台相机在水平方向、垂直方向转动角及其相对位置估计出目标实时位置;针对云台相机建模过程中相机外部... 对双目云台相机目标跟踪系统的各个环节建立数学模型。采用扩展Kalman滤波(Extended Kalman Filter,EKF)作为定位跟踪算法,利用双目云台相机在水平方向、垂直方向转动角及其相对位置估计出目标实时位置;针对云台相机建模过程中相机外部参数随云台旋转发生变化的问题,提出一种云台相机实时标定方法;利用云台相机模型将目标估计位置投影到相机图像平面,提取出目标的图像特征作为视觉伺服系统的反馈信息控制云台旋转跟踪目标轨迹。在Matlab/Simulink环境下搭建仿真模型,仿真结果证实了方案的可行性和有效性,为视觉伺服控制器进一步设计提供了仿真平台。 展开更多
关键词 云台相机 双目立体视觉 目标跟踪 EKF 视觉伺服
原文传递
火星探测出舱机构的识别定位与坡度测量 被引量:3
19
作者 李莹 叶培建 +1 位作者 彭兢 杜颖 《宇航学报》 EI CAS CSCD 北大核心 2016年第2期169-174,共6页
为实现火星探测两器分离过程中出舱机构的坡度测量,提出一种基于立体视觉技术的出舱机构识别定位与坡度测量方法。首先,采用特征匹配的方法对场景中的出舱机构进行识别定位。针对巡视器导航相机成像视角变化以及出舱机构倾角变化导致图... 为实现火星探测两器分离过程中出舱机构的坡度测量,提出一种基于立体视觉技术的出舱机构识别定位与坡度测量方法。首先,采用特征匹配的方法对场景中的出舱机构进行识别定位。针对巡视器导航相机成像视角变化以及出舱机构倾角变化导致图像产生几何形变,火星表面光照因素的影响以及巡视器硬件的计算能力,并结合出舱机构自身特点,提出一种区域特征与Blob特征相融合的识别定位方法。采用加速鲁棒性特征(SURF)算法检测图像中的局部不变特征,并用最大稳定极值区域(MSER)算法检测图像最稳定极值区域,两种特征相融合之后构造SURF描述算子并进行特征匹配。同时,采用M估计抽样一致性(MSAC)算法计算对应点变换矩阵,实现出舱机构在场景中的初步定位。然后,通过对出舱机构上人工标志的精确定位以及三维重建,并采用主成分分析法进行平面拟合,实现出舱机构的坡度测量。试验结果表明,该方法对成像视角变化以及光照变化具有鲁棒性,提取的有效特征数以及计算时间均优于尺度不变特征变换(SIFT)算法,基本满足火星探测中出舱机构坡度测量要求。 展开更多
关键词 火星探测 立体视觉 目标识别 巡视器出舱 鲁棒特征
在线阅读 下载PDF
结构光三维传感器测量网相关技术 被引量:7
20
作者 刘晓利 何懂 +3 位作者 陈海龙 蔡泽伟 殷永凯 彭翔 《红外与激光工程》 EI CSCD 北大核心 2020年第3期109-118,共10页
针对大尺寸复杂物体的全自动、高精度、大数据密度、真彩色三维成像与测量,基于条纹结构光三维传感器,阐述了多节点三维传感器测量网络相关技术。涉及单三维传感器的条纹分析和相位重建、系统标定和三维重建两大关键技术点分析,多节点... 针对大尺寸复杂物体的全自动、高精度、大数据密度、真彩色三维成像与测量,基于条纹结构光三维传感器,阐述了多节点三维传感器测量网络相关技术。涉及单三维传感器的条纹分析和相位重建、系统标定和三维重建两大关键技术点分析,多节点三维传感器测量网络的构建与优化、多节点三维传感器测量网络的标定、测量三维深度数据与纹理数据的匹配与融合等相关技术。并给出了部分实验原型机及实验结果。 展开更多
关键词 条纹结构光 三维传感器 测量网 系统标定 立体标靶 三维成像与测量
原文传递
上一页 1 2 7 下一页 到第
使用帮助 返回顶部