期刊文献+
共找到13篇文章
< 1 >
每页显示 20 50 100
6-DOF MOTION AND CENTER OF ROTATION ESTIMATION BASED ON STEREO VISION 被引量:8
1
作者 CAO Wanpeng BI Wei +2 位作者 CHE Rensheng GUO Wenbo YE Dong 《Chinese Journal of Mechanical Engineering》 SCIE EI CAS CSCD 2008年第2期87-92,共6页
A new motion model and estimation algorithm is proposed to compute the general rigid motion object's 6-DOF motion parameters and center of rotation based on stereo vision. The object's 6-DOF motion model is designed... A new motion model and estimation algorithm is proposed to compute the general rigid motion object's 6-DOF motion parameters and center of rotation based on stereo vision. The object's 6-DOF motion model is designed from the rigid object's motion character under the two defined reference frames. According to the rigid object's motion model and motion dynamics knowledge, the corresponding motion algorithm to compute the 6-DOF motion parameters is worked out. By the rigid object pure rotation motion model and space sphere geometry knowledge, the center of rotation may be calculated after eliminating the translation motion out of the 6-DOF motion. The motion equations are educed based on the motion model and the closed-form solutions are figured out. To heighten the motion estimation algorithm's robust, RANSAC algorithm is applied to delete the outliers. Simulation and real experiments are conducted and the experiment results are analyzed. The results prove the motion model's correction and algorithm's validity. 展开更多
关键词 Motion estimation Center of rotation 6-dof motion Stereo vision
在线阅读 下载PDF
6-DOF motion estimation using optical flow based on dual cameras 被引量:3
2
作者 刘梦瑶 王岩 郭雷 《Journal of Central South University》 SCIE EI CAS CSCD 2017年第2期459-466,共8页
Because of its characteristics of simple algorithm and hardware, optical flow-based motion estimation has become a hot research field, especially in GPS-denied environment. Optical flow could be used to obtain the air... Because of its characteristics of simple algorithm and hardware, optical flow-based motion estimation has become a hot research field, especially in GPS-denied environment. Optical flow could be used to obtain the aircraft motion information, but the six-(degree of freedom)(6-DOF) motion still couldn't be accurately estimated by existing methods. The purpose of this work is to provide a motion estimation method based on optical flow from forward and down looking cameras, which doesn't rely on the assumption of level flight. First, the distribution and decoupling method of optical flow from forward camera are utilized to get attitude. Then, the resulted angular velocities are utilized to obtain the translational optical flow of the down camera, which can eliminate the influence of rotational motion on velocity estimation. Besides, the translational motion estimation equation is simplified by establishing the relation between the depths of feature points and the aircraft altitude. Finally, simulation results show that the method presented is accurate and robust. 展开更多
关键词 optical flow motion estimation dual cameras six degree-of-freedom(6-dof)
在线阅读 下载PDF
基于合成数据集的多目标识别与6-DoF位姿估计 被引量:2
3
作者 胡广华 欧美彤 李振东 《华南理工大学学报(自然科学版)》 EI CAS CSCD 北大核心 2024年第4期42-50,共9页
多目标识别及六自由度(6-DoF)位姿估计是实现物料无序堆放状态下机器人自动分拣的关键。近年来,基于深度神经网络的方法在目标识别及位姿估计领域受到广泛关注,但此类方法依赖大量训练样本,而样本的采集及标注费时费力,限制了其实用性... 多目标识别及六自由度(6-DoF)位姿估计是实现物料无序堆放状态下机器人自动分拣的关键。近年来,基于深度神经网络的方法在目标识别及位姿估计领域受到广泛关注,但此类方法依赖大量训练样本,而样本的采集及标注费时费力,限制了其实用性。其次,当成像条件差、目标相互遮挡时,现有位姿估计方法无法保证结果的可靠性,进而导致抓取失败。为此,文中提出了一种基于合成数据样本的目标识别、分割及位姿估计方法。首先,以目标对象的3维(3D)几何模型为基础,利用3D图形编程工具生成虚拟场景的多视角RGB-D合成图像,并对生成的RGB图像及深度图像分别进行风格迁移和噪声增强,从而提高合成数据的真实感,以适应真实场景的检测需要;接着,利用合成数据集训练YOLOv7-mask实例分割模型,运用真实数据进行测试,结果验证了该方法的有效性;然后,以分割结果为基础,基于ES6D目标位姿估计模型,提出了一种在线姿态评估方法,以自动滤除严重失真的估计结果;最后,采用基于主动视觉的位姿估计校正策略,引导机械臂运动到新的视角重新检测,以解决因遮挡而导致位姿估计偏差的问题。在自行搭建的6自由度工业机器人视觉分拣系统上进行了实验,结果表明,文中提出的方法能较好地适应复杂环境下工件的识别与6-DoF姿态估计要求。 展开更多
关键词 目标识别 位置测量 6-dof位姿估计 机器人自动分拣 RGB-D图像
在线阅读 下载PDF
Exploring 2D projection and 3D spatial information for aircraft 6D pose 被引量:1
4
作者 Daoyong FU Songchen HAN +2 位作者 BinBin LIANG Xinyang YUAN Wei LI 《Chinese Journal of Aeronautics》 SCIE EI CAS CSCD 2023年第8期258-268,共11页
The 6D pose estimation is important for the safe take-off and landing of the aircraft using a single RGB image. Due to the large scene and large depth, the exiting pose estimation methods have unstratified performance... The 6D pose estimation is important for the safe take-off and landing of the aircraft using a single RGB image. Due to the large scene and large depth, the exiting pose estimation methods have unstratified performance on the accuracy. To achieve precise 6D pose estimation of the aircraft, an end-to-end method using an RGB image is proposed. In the proposed method, the2D and 3D information of the keypoints of the aircraft is used as the intermediate supervision,and 6D pose information of the aircraft in this intermediate information will be explored. Specifically, an off-the-shelf object detector is utilized to detect the Region of the Interest(Ro I) of the aircraft to eliminate background distractions. The 2D projection and 3D spatial information of the pre-designed keypoints of the aircraft is predicted by the keypoint coordinate estimator(Kp Net).The proposed method is trained in an end-to-end fashion. In addition, to deal with the lack of the related datasets, this paper builds the Aircraft 6D Pose dataset to train and test, which captures the take-off and landing process of three types of aircraft from 11 views. Compared with the latest Wide-Depth-Range method on this dataset, our proposed method improves the average 3D distance of model points metric(ADD) and 5° and 5 m metric by 86.8% and 30.1%, respectively. Furthermore, the proposed method gets 9.30 ms, 61.0% faster than YOLO6D with 23.86 ms. 展开更多
关键词 2D and 3D information 6D pose regression aircraft 6D pose estimation End-to-end network RGB image
原文传递
6D pose annotation and pose estimation method for weak-corner objects under low-light conditions 被引量:1
5
作者 JIANG ZhiHong CHEN JinHong +2 位作者 JING YaMan HUANG Xiao LI Hui 《Science China(Technological Sciences)》 SCIE EI CAS CSCD 2023年第3期630-640,共11页
In unstructured environments such as disaster sites and mine tunnels,it is a challenge for robots to estimate the poses of objects under complex lighting backgrounds,which limit their operation.Owing to the shadows pr... In unstructured environments such as disaster sites and mine tunnels,it is a challenge for robots to estimate the poses of objects under complex lighting backgrounds,which limit their operation.Owing to the shadows produced by a point light source,the brightness of the operation scene is seriously unbalanced,and it is difficult to accurately extract the features of objects.It is especially difficult to accurately label the poses of objects with weak corners and textures.This study proposes an automatic pose annotation method for such objects,which combine 3D-2D matching projection and rendering technology to improve the efficiency of dataset annotation.A 6D object pose estimation method under low-light conditions(LP_TGC)is then proposed,including(1)a light preprocessing neural network model based on a low-light preprocessing module(LPM)to balance the brightness of a picture and improve its quality;and(2)a 6D pose estimation model(TGC)based on the keypoint matching.Four typical datasets are constructed to verify our method,the experimental results validated and demonstrated the effectiveness of the proposed LP_TGC method.The estimation model based on the preprocessed image can accurately estimate the pose of the object in the mentioned unstructured environments,and it can improve the accuracy by an average of~3%based on the ADD metric. 展开更多
关键词 6D object pose estimation 6D pose annotation low-light conditions
原文传递
6D Object Pose Estimation in Cluttered Scenes from RGB Images 被引量:1
6
作者 Xiao-Long Yang Xiao-Hong Jia +1 位作者 Yuan Liang Lu-Bin Fan 《Journal of Computer Science & Technology》 SCIE EI CSCD 2022年第3期719-730,共12页
We propose a feature-fusion network for pose estimation directly from RGB images without any depth information in this study.First,we introduce a two-stream architecture consisting of segmentation and regression strea... We propose a feature-fusion network for pose estimation directly from RGB images without any depth information in this study.First,we introduce a two-stream architecture consisting of segmentation and regression streams.The segmentation stream processes the spatial embedding features and obtains the corresponding image crop.These features are further coupled with the image crop in the fusion network.Second,we use an efficient perspective-n-point(E-PnP)algorithm in the regression stream to extract robust spatial features between 3D and 2D keypoints.Finally,we perform iterative refinement with an end-to-end mechanism to improve the estimation performance.We conduct experiments on two public datasets of YCB-Video and the challenging Occluded-LineMOD.The results show that our method outperforms state-of-the-art approaches in both the speed and the accuracy. 展开更多
关键词 two-stream network 6D pose estimation fusion feature
原文传递
采用辅助学习的物体六自由度位姿估计 被引量:1
7
作者 陈敏佳 盖绍彦 +1 位作者 达飞鹏 俞健 《光学精密工程》 EI CAS CSCD 北大核心 2024年第6期901-914,共14页
为了在严重遮挡以及少纹理等具有挑战性的场景下,准确地估计物体在相机坐标系中的位置和姿态,同时进一步提高网络效率,简化网络结构,本文基于RGB-D数据提出了采用辅助学习的六自由度位姿估计方法。网络以目标物体图像块、对应深度图以及... 为了在严重遮挡以及少纹理等具有挑战性的场景下,准确地估计物体在相机坐标系中的位置和姿态,同时进一步提高网络效率,简化网络结构,本文基于RGB-D数据提出了采用辅助学习的六自由度位姿估计方法。网络以目标物体图像块、对应深度图以及CAD模型作为输入,首先,利用双分支点云配准网络,分别得到模型空间和相机空间下的预测点云;接着,对于辅助学习网络,将目标物体图像块和由深度图得到的Depth-XYZ输入多模态特征提取及融合模块,再进行由粗到细的位姿估计,并将估计结果作为先验用于优化损失计算。最后,在性能评估阶段,舍弃辅助学习分支,仅将双分支点云配准网络的输出利用点对特征匹配进行六自由度位姿估计。实验结果表明:所提方法在YCB-Video数据集上的AUC和ADD-S<2 cm结果分别为95.9%和99.0%;在LineMOD数据集上的平均ADD(-S)结果为99.4%;在LM-O数据集上的平均ADD(-S)结果为71.3%。与现有的其他六自由度位姿估计方法相比,采用辅助学习的方法在模型性能上具有优势,在位姿估计准确率上有较大提升。 展开更多
关键词 六自由度位姿估计 辅助学习 深度图像 三维点云
在线阅读 下载PDF
DMANet:针对空间非合作目标位姿估计的密集多尺度注意力网络
8
作者 张钊 胡瑀晖 +3 位作者 周栋 吴立刚 姚蔚然 李鹏 《Transactions of Nanjing University of Aeronautics and Astronautics》 EI CSCD 2024年第1期122-134,共13页
利用单目相机对空间非合作目标进行准确的姿态估计对于空间碎片清除、自主交会和其他在轨服务至关重要。然而,单目姿态估计方法缺乏深度信息,导致尺度不确定性问题,大大降低了其精度和实时性。本文首先提出了一种多尺度注意块(Multi-sca... 利用单目相机对空间非合作目标进行准确的姿态估计对于空间碎片清除、自主交会和其他在轨服务至关重要。然而,单目姿态估计方法缺乏深度信息,导致尺度不确定性问题,大大降低了其精度和实时性。本文首先提出了一种多尺度注意块(Multi-scale attention block, MAB),从输入图像中提取复杂的高维语义特征。其次,基于MAB模块,提出了空间非合作目标6自由度位姿估计的密集多尺度注意网络(Dense multi-scale attention network, DMANet),该网络由平面位置估计、深度位置估计和姿态估计3个分支组成,通过引入基于欧拉角的软分类方法,将位姿回归问题表述为经典分类问题。此外,设计了空间非合作目标模型,并利用Coppeliasim构建了姿态估计数据集。最后,与其他最先进的方法相比,在SPEED+、URSO数据集和本文数据集上全面评估了所提出的方法。实验结果表明,该方法具有较好的姿态估计精度。 展开更多
关键词 六自由度位姿估计 空间非合作目标 多尺度注意力机制 深度学习 神经网络
在线阅读 下载PDF
化工生产线工业机器人视觉点位修正校准方案优化研究
9
作者 王琳 赵学强 《粘接》 CAS 2024年第9期65-67,71,共4页
为提高工业机器人在复杂化工生产环境下的目标识别与抓取精度,对化工生产线工业机器人视觉点位修正校准方案进行优化研究。提出一种基于3D双目视觉的立体校准修正算法,通过对极几何模型、KNN算法以及点云预处理,实现对化工生产线工业机... 为提高工业机器人在复杂化工生产环境下的目标识别与抓取精度,对化工生产线工业机器人视觉点位修正校准方案进行优化研究。提出一种基于3D双目视觉的立体校准修正算法,通过对极几何模型、KNN算法以及点云预处理,实现对化工生产线工业机器人的六自由度位姿估算。结果表明,改进的视觉校准和姿态估算方法能够有效提升机器人在复杂环境下的抓取精度,抓取误差在3 mm以内。所提出的视觉修正算法能够稳定输出高置信度的目标位姿信息,在实际的工业应用中具有可行性。 展开更多
关键词 工业机器人 3D双目视觉 6自由度位姿估计
在线阅读 下载PDF
基于关键点特征融合的六自由度位姿估计方法 被引量:10
10
作者 王太勇 孙浩文 《天津大学学报(自然科学与工程技术版)》 EI CAS CSCD 北大核心 2022年第5期543-551,共9页
针对单张RGB-D图像进行六自由度目标位姿估计难以充分利用颜色信息与深度信息的问题,提出了一种基于多种网络(金字塔池化网络和PointNet++网络结合特征融合网络)构成的深度学习网络框架.方法用于估计在高度杂乱场景下一组已知对象的六... 针对单张RGB-D图像进行六自由度目标位姿估计难以充分利用颜色信息与深度信息的问题,提出了一种基于多种网络(金字塔池化网络和PointNet++网络结合特征融合网络)构成的深度学习网络框架.方法用于估计在高度杂乱场景下一组已知对象的六自由度位姿.首先对RGB图像进行语义识别,将每一个已知类别的对象掩膜应用到深度图中,按照掩膜的边界框完成对彩色图与深度图进行语义分割;其次,在获取到的点云数据中采用FPS算法获取关键点,映射到彩色图像与深度图像中进行关键点特征提取,将RGB-D图像中的颜色信息与深度信息视为异构数据,考虑关键点需要充分融合局部信息与全局信息,分别采用了金子塔池化网络(pyramid scene parsing network,PSPNet)和PointNet++网络提取颜色信息与深度信息;采用一种新型的关键点特征融合方法,深度融合提取到颜色信息与几何信息的局部及全局特征,并嵌入到选定的特征点中;使用多层感知机(multilayer perceptron,MLP)输出每一个像素点的六自由度位姿和置信度,利用每一个像素点的置信度,让网络自主选择最优的估计结果;最后,利用一种端到端的迭代位姿求精网络,进一步提高六自由度位姿估计的准确度.网络在公开的数据集LineMOD和YCB-Video上进行测试,实验结果表明和现有同类型的六自由度位姿估计方法相比,本文所提出的模型预测的六自由度准确度优于现有的同类型方法,在采用相同的评价标准下,平均准确度分别达到了97.2%和95.1%,分别提升了2.9%和3.9%.网络同时满足实时性要求,完成每一帧图像的六自由度位姿预测仅需0.06 s. 展开更多
关键词 六自由度位姿估计 深度学习 特征融合 机器视觉
在线阅读 下载PDF
大型六自由度振动平台的运动控制研究 被引量:1
11
作者 王隶梓 王兴宇 李力强 《制造技术与机床》 CSCD 北大核心 2010年第11期64-68,共5页
提出了一种应用于工程机械测试的大型六自由度振动平台。在分析平台姿态解算函数的同时,给出了一种基于EV模型频响函数估计的波形复现算法,该算法实质是频响函数的实时在线修正方法,有利于提高波形复现精度。仿真结果表明:平台姿态解算... 提出了一种应用于工程机械测试的大型六自由度振动平台。在分析平台姿态解算函数的同时,给出了一种基于EV模型频响函数估计的波形复现算法,该算法实质是频响函数的实时在线修正方法,有利于提高波形复现精度。仿真结果表明:平台姿态解算函数正确,基于EV模型频响函数估计的波形复现算法能够实现平台对输入波形的准确复现,具有较高的控制精度。 展开更多
关键词 六自由度 振动平台 位姿估算 EV模型
在线阅读 下载PDF
基于深度学习的RGB图像目标位姿估计综述 被引量:4
12
作者 王一 谢杰 +1 位作者 程佳 豆立伟 《计算机应用》 CSCD 北大核心 2023年第8期2546-2555,共10页
6自由度(DoF)位姿估计是计算机视觉与机器人技术中的一项关键技术,它能从给定的输入图像中估计物体的6DoF位姿,即3DoF平移和3DoF旋转,已经成为机器人操作、自动驾驶、增强现实等领域中的一项至关重要的任务。首先,介绍了6DoF位姿的概念... 6自由度(DoF)位姿估计是计算机视觉与机器人技术中的一项关键技术,它能从给定的输入图像中估计物体的6DoF位姿,即3DoF平移和3DoF旋转,已经成为机器人操作、自动驾驶、增强现实等领域中的一项至关重要的任务。首先,介绍了6DoF位姿的概念以及基于特征点对应、基于模板匹配、基于三维特征描述符等传统方法存在的问题;然后,以基于特征对应、基于像素投票、基于回归和面向多物体实例、面向合成数据、面向类别级的不同角度详细介绍了当前主流的基于深度学习的6DoF位姿估计算法,归纳整理了在位姿估计方面常用的数据集以及评价指标,并对部分算法进行了实验性能评价;最后,给出了当前位姿估计面临的挑战和未来的重点研究方向。 展开更多
关键词 6自由度位姿估计 位姿估计数据集 位姿估计评价方法 深度学习 计算机视觉 工业机器人
在线阅读 下载PDF
基于单目视觉的类别级六自由度位姿估计方法
13
作者 郭凌 史金龙 茅凌波 《计算机与数字工程》 2023年第8期1787-1791,1810,共6页
目前,6D位姿估计技术主要针对实例级别的物体,而对网络预先没有获取精准CAD模型的实例,无法估计其6D位姿信息。针对这一问题,论文提出了一种类别级6D位姿估计的网络框架。首先,进行目标识别与掩膜分割,再通过逐像素预测目标的三维坐标,... 目前,6D位姿估计技术主要针对实例级别的物体,而对网络预先没有获取精准CAD模型的实例,无法估计其6D位姿信息。针对这一问题,论文提出了一种类别级6D位姿估计的网络框架。首先,进行目标识别与掩膜分割,再通过逐像素预测目标的三维坐标,获取其标准化模型点云;其次,设计了一种单目深度估计网络,再通过三维重建得到实例对象的局部点云;最后,利用局部点云与标准化模型点云配准,计算得到类别级物体的6D位姿信息。实验表明:方法仅通过单张图像就能实现类别级6D位姿信息估计,平均精度达到89.2%。 展开更多
关键词 位姿估计 六自由度 类别级 单目视觉
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部