期刊文献+
共找到227篇文章
< 1 2 12 >
每页显示 20 50 100
Rotation Estimation for Mobile Robot Based on Single-axis Gyroscope and Monocular Camera 被引量:2
1
作者 Yang, Ke-Hu Yu, Wen-Sheng Ji, Xiao-Qiang 《International Journal of Automation and computing》 EI 2012年第3期292-298,共7页
The rotation matrix estimation problem is a keypoint for mobile robot localization, navigation, and control. Based on the quaternion theory and the epipolar geometry, an extended Kalman filter (EKF) algorithm is propo... The rotation matrix estimation problem is a keypoint for mobile robot localization, navigation, and control. Based on the quaternion theory and the epipolar geometry, an extended Kalman filter (EKF) algorithm is proposed to estimate the rotation matrix by using a single-axis gyroscope and the image points correspondence from a monocular camera. The experimental results show that the precision of mobile robot s yaw angle estimated by the proposed EKF algorithm is much better than the results given by the image-only and gyroscope-only method, which demonstrates that our method is a preferable way to estimate the rotation for the autonomous mobile robot applications. 展开更多
关键词 Rotation matrix estimation QUATERNION extended Kalman filter (EKF) monocular camera gyroscope.
原文传递
AstroPose:Astronaut pose estimation using a monocular camera during extravehicular activities 被引量:1
2
作者 LIU ZiBin LI You +4 位作者 WANG ChunHui LIU Liang GUAN BangLei SHANG Yang YU QiFeng 《Science China(Technological Sciences)》 SCIE EI CAS CSCD 2024年第6期1933-1945,共13页
With the completion of the Chinese space station,an increasing number of extravehicular activities will be executed by astronauts,which is regarded as one of the most dangerous activities in human space exploration.To... With the completion of the Chinese space station,an increasing number of extravehicular activities will be executed by astronauts,which is regarded as one of the most dangerous activities in human space exploration.To guarantee the safety of astronauts and the successful accomplishment of missions,it is vital to determine the pose of astronauts during extravehicular activities.This article presents a monocular vision-based pose estimation method of astronauts during extravehicular activities,making full use of the available observation resources.First,the camera is calibrated using objects of known structures,such as the spacesuit backpack or the circular handrail outside the space station.Subsequently,the pose estimation is performed utilizing the feature points on the spacesuit.The proposed methods are validated both on synthetic and semi-physical simulation experiments,demonstrating the high precision of the camera calibration and pose estimation.To further evaluate the performance of the methods in real-world scenarios,we utilize image sequences of Shenzhou-13 astronauts during extravehicular activities.The experiments validate that camera calibration and pose estimation can be accomplished solely with the existing observation resources,without requiring additional complicated equipment.The motion parameters of astronauts lay the technological foundation for subsequent applications such as mechanical analysis,task planning,and ground training of astronauts. 展开更多
关键词 monocular camera astronaut pose estimation camera calibration
原文传递
Monocular visual estimation for autonomous aircraft landing guidance in unknown structured scenes
3
作者 Zhuo ZHANG Quanrui CHEN +2 位作者 Qiufu WANG Xiaoliang SUN Qifeng YU 《Chinese Journal of Aeronautics》 2025年第9期365-382,共18页
The autonomous landing guidance of fixed-wing aircraft in unknown structured scenes presents a substantial technological challenge,particularly regarding the effectiveness of solutions for monocular visual relative po... The autonomous landing guidance of fixed-wing aircraft in unknown structured scenes presents a substantial technological challenge,particularly regarding the effectiveness of solutions for monocular visual relative pose estimation.This study proposes a novel airborne monocular visual estimation method based on structured scene features to address this challenge.First,a multitask neural network model is established for segmentation,depth estimation,and slope estimation on monocular images.And a monocular image comprehensive three-dimensional information metric is designed,encompassing length,span,flatness,and slope information.Subsequently,structured edge features are leveraged to filter candidate landing regions adaptively.By leveraging the three-dimensional information metric,the optimal landing region is accurately and efficiently identified.Finally,sparse two-dimensional key point is used to parameterize the optimal landing region for the first time and a high-precision relative pose estimation is achieved.Additional measurement information is introduced to provide the autonomous landing guidance information between the aircraft and the optimal landing region.Experimental results obtained from both synthetic and real data demonstrate the effectiveness of the proposed method in monocular pose estimation for autonomous aircraft landing guidance in unknown structured scenes. 展开更多
关键词 Automatic landing Image processing monocular camera Pose measurement Unknown structured scene
原文传递
Monocular camera and 3D lidar joint calibration 被引量:1
4
作者 Zheng Xin Wu Xiaojun 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2020年第4期91-98,共8页
Joint calibration of sensors is an important prerequisite in intelligent driving scene retrieval and recognition. A simple and efficient solution is proposed for solving the problem of automatic joint calibration regi... Joint calibration of sensors is an important prerequisite in intelligent driving scene retrieval and recognition. A simple and efficient solution is proposed for solving the problem of automatic joint calibration registration between the monocular camera and the 16-line lidar. The study is divided into two parts: single-sensor independent calibration and multi-sensor joint registration, in which the selected objective world is used. The system associates the lidar coordinates with the camera coordinates. The lidar and the camera are used to obtain the normal vectors of the calibration plate and the point cloud data representing the calibration plate by the appropriate algorithm. Iterated closest points(ICP) is the method used for the iterative refinement of the registration. 展开更多
关键词 calibration registration monocular camera 16-line lidar MULTI-SENSOR ICP
原文传递
ELDE-Net:Efficient Light-Weight Depth Estimation Network for Deep Reinforcement Learning-Based Mobile Robot Path Planning
5
作者 Thai-Viet Dang Dinh-Manh-Cuong Tran +1 位作者 Nhu-Nghia Bui Phan Xuan Tan 《Computers, Materials & Continua》 2025年第11期2651-2680,共30页
Precise and robust three-dimensional object detection(3DOD)presents a promising opportunity in the field of mobile robot(MR)navigation.Monocular 3DOD techniques typically involve extending existing twodimensional obje... Precise and robust three-dimensional object detection(3DOD)presents a promising opportunity in the field of mobile robot(MR)navigation.Monocular 3DOD techniques typically involve extending existing twodimensional object detection(2DOD)frameworks to predict the three-dimensional bounding box(3DBB)of objects captured in 2D RGB images.However,these methods often require multiple images,making them less feasible for various real-time scenarios.To address these challenges,the emergence of agile convolutional neural networks(CNNs)capable of inferring depth froma single image opens a new avenue for investigation.The paper proposes a novel ELDENet network designed to produce cost-effective 3DBounding Box Estimation(3D-BBE)froma single image.This novel framework comprises the PP-LCNet as the encoder and a fast convolutional decoder.Additionally,this integration includes a Squeeze-Exploit(SE)module utilizing the Math Kernel Library for Deep Neural Networks(MKLDNN)optimizer to enhance convolutional efficiency and streamline model size during effective training.Meanwhile,the proposed multi-scale sub-pixel decoder generates high-quality depth maps while maintaining a compact structure.Furthermore,the generated depthmaps provide a clear perspective with distance details of objects in the environment.These depth insights are combined with 2DOD for precise evaluation of 3D Bounding Boxes(3DBB),facilitating scene understanding and optimal route planning for mobile robots.Based on the estimated object center of the 3DBB,the Deep Reinforcement Learning(DRL)-based obstacle avoidance strategy for MRs is developed.Experimental results demonstrate that our model achieves state-of-the-art performance across three datasets:NYU-V2,KITTI,and Cityscapes.Overall,this framework shows significant potential for adaptation in intelligent mechatronic systems,particularly in developing knowledge-driven systems for mobile robot navigation. 展开更多
关键词 3D bounding box estimation depth estimation mobile robot navigation monocular camera object detection
在线阅读 下载PDF
基于多传感器融合的无人车目标检测系统研究
6
作者 陈晓锋 李郁峰 +3 位作者 王传松 郭荣 樊宏丽 朱堉伦 《激光杂志》 北大核心 2025年第5期94-100,共7页
针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov... 针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov5算法对预处理后的点云数据和图像数据进行迁移训练和目标检测得到检测框,最后使用交并比匹配、D-S证据理论和加权框融合方法对目标结果进行融合。通过实车试验,得出提出的融合方法在激光雷达和相机的决策级融合场景中能够有效结合两者的优势,实现对环境的更全面感知,有效提升目标检测精度,减小误检,漏检的概率。 展开更多
关键词 多传感器融合 激光雷达 单目相机 D-S证据理论 加权框融合
原文传递
面向野外环境的视觉惯导SLAM算法
7
作者 李静博 伊克萨尼·普尔凯提 +2 位作者 朱斌 朱纪洪 艾斯卡尔·艾木都拉 《计算机工程与设计》 北大核心 2025年第4期1005-1012,共8页
过去的定位研究大多是在结构化环境下进行研究的,但在野外环境下由于光照变化大、特征提取困难和颠簸道路多导致定位困难。提出一个由单目相机和惯性测量单元组成的可视化视觉惯导里程计,前端通过融合基于泊松方程预处理的视觉信息和惯... 过去的定位研究大多是在结构化环境下进行研究的,但在野外环境下由于光照变化大、特征提取困难和颠簸道路多导致定位困难。提出一个由单目相机和惯性测量单元组成的可视化视觉惯导里程计,前端通过融合基于泊松方程预处理的视觉信息和惯性测量单元信息,后端采用非线性优化并结合鲁棒核函数使系统能够在光照变化大和颠簸道路的野外环境下鲁棒运行。实验结果表明,算法在ROOAD野外环境数据集中的表现比最先进的视觉惯导方法精度更高,鲁棒性更强,在EuRoC结构化数据集中的表现也超越现阶段最先进的算法。 展开更多
关键词 同时定位与建图 定位 单目相机 惯性测量单元 野外环境 自动驾驶 环境感知
在线阅读 下载PDF
基于单相机的空间目标相对位姿测量系统
8
作者 支帅 丁国鹏 +2 位作者 韩世豪 张永合 朱振才 《中国光学(中英文)》 北大核心 2025年第5期1111-1123,共13页
为提高测量系统的稳定性及精度,实现航天器超近距离高精度对接,本文提出了一种基于单相机及合作靶标的相对位姿测量系统,用于双星间相对位置及姿态的高精度测量。通过设计追踪星视觉相机及目标星LED合作靶标,在双星距离为50米到0.4米的... 为提高测量系统的稳定性及精度,实现航天器超近距离高精度对接,本文提出了一种基于单相机及合作靶标的相对位姿测量系统,用于双星间相对位置及姿态的高精度测量。通过设计追踪星视觉相机及目标星LED合作靶标,在双星距离为50米到0.4米的范围内,实现了高精度的相对位姿测量。通过设计远近场LED靶标,实现了相机与靶标间的协同工作,保证在50米到0.4米的距离均能清晰成像;根据设计的靶标特性,提出了多尺度质心提取算法,利用斜率一致性约束与间距比筛选,在复杂光照下能稳定获取特征目标;最后,结合靶标几何约束的初值估计,实现了目标星相对于追踪星的位姿解算,为进一步提高测量精度,引入非线性优化方法对位姿结果进行迭代优化,有效降低了测量误差。试验结果表明,系统测量精度由远及近逐渐提高,在距离为0.4m时,位置测量精度优于1mm,姿态测量精度优于0.2°,满足超近距离对接任务需求。本方案为空间在轨目标相对位姿测量提供了高精度、高稳定性的技术支撑,具有重要的工程应用价值。 展开更多
关键词 单相机 LED合作靶标 多尺度质心提取 非线性优化 相对位姿测量
在线阅读 下载PDF
基于深度估计SVO与IMU融合的定位算法研究
9
作者 李德航 袁宇鹏 +5 位作者 张楠 廖崧琳 王露 向路 陈凤 喻芳菲 《压电与声光》 北大核心 2025年第4期776-782,共7页
针对单一传感器的局限以及视觉惯性融合算法计算复杂度等问题,提出一种基于深度估计半直接视觉里程计(SVO)与惯性测量单元(IMU)融合的定位算法。将深度估计模块集成至SVO中,采用扩展卡尔曼滤波器构建松耦合融合框架,融合视觉位姿信息与... 针对单一传感器的局限以及视觉惯性融合算法计算复杂度等问题,提出一种基于深度估计半直接视觉里程计(SVO)与惯性测量单元(IMU)融合的定位算法。将深度估计模块集成至SVO中,采用扩展卡尔曼滤波器构建松耦合融合框架,融合视觉位姿信息与IMU加速度、角速度数据,实现状态估计与位姿校正。在KITTI数据集以及真实环境中验证表明,该算法的绝对轨迹误差低于纯视觉算法,且在复杂场景下预测轨迹与真实轨迹高度贴合。 展开更多
关键词 单目相机 惯性导航 多传感器融合定位 半直接视觉里程计(SVO) 扩展卡尔曼滤波器(EKF) 视觉惯性融合
在线阅读 下载PDF
High-precision Calibration of Camera and IMU on Manipulator for Bio-inspired Robotic System 被引量:1
10
作者 Yinlong Zhang Wei Liang +4 位作者 Sichao Zhang Xudong Yuan Xiaofang Xia Jindong Tan Zhibo Pang 《Journal of Bionic Engineering》 SCIE EI CSCD 2022年第2期299-313,共15页
Inspired by box jellyfish that has distributed and complementary perceptive system,we seek to equip manipulator with a camera and an Inertial Measurement Unit(IMU)to perceive ego motion and surrounding unstructured en... Inspired by box jellyfish that has distributed and complementary perceptive system,we seek to equip manipulator with a camera and an Inertial Measurement Unit(IMU)to perceive ego motion and surrounding unstructured environment.Before robot perception,a reliable and high-precision calibration between camera,IMU and manipulator is a critical prerequisite.This paper introduces a novel calibration system.First,we seek to correlate the spatial relationship between the sensing units and manipulator in a joint framework.Second,the manipulator moving trajectory is elaborately designed in a spiral pattern that enables full excitations on yaw-pitch-roll rotations and x-y-z translations in a repeatable and consistent manner.The calibration has been evaluated on our collected visual inertial-manipulator dataset.The systematic comparisons and analysis indicate the consistency,precision and effectiveness of our proposed calibration method. 展开更多
关键词 Bio-inspired robotic system monocular camera IMU MANIPULATOR CALIBRATION
在线阅读 下载PDF
基于边缘设备的快速单目深度估计算法研究
11
作者 王文帅 韩军 +2 位作者 邹小燕 倪源松 胡广怡 《计算机测量与控制》 2025年第4期262-269,共8页
单目深度估算采用单一相机,安装方便,在机器人、无人机领域有广泛的应用;由于单目深度估计算法采用基于编码-解码的复杂的深度神经网络结构会导致边缘设备实时推理效率较低的问题,进而提出了一种可以在边缘设备上实时深度估计的网络架构... 单目深度估算采用单一相机,安装方便,在机器人、无人机领域有广泛的应用;由于单目深度估计算法采用基于编码-解码的复杂的深度神经网络结构会导致边缘设备实时推理效率较低的问题,进而提出了一种可以在边缘设备上实时深度估计的网络架构;该架构采用倒置残差块设计的编码端,采用残差深度可分离卷积与最近邻插值重新设计的解码端,大大减少了模型的参数和计算量,并通过跨层连接将编码网络的特征与解码网络的特征相融合增强深度图中物体的边缘细节信息;实验结果表明,提出的网络架构参数量减少了82%,计算量减少了92%,在KITTI数据集上达到了先进的性能,并且在Jetson TX2上推理速度达到了50 FPS。 展开更多
关键词 深度感知 单目相机 边缘设备 倒置残差 神经网络
在线阅读 下载PDF
基于单目场景的车辆三维目标检测方法综述
12
作者 唐心瑶 王伟 《现代信息科技》 2025年第9期16-24,31,共10页
近年来,车辆三维目标检测在自动驾驶等智能交通领域备受关注。相较于二维检测,三维检测可精确估计目标在三维空间中的位置、尺寸与姿态等信息。因单目相机具备成本低、数据处理效率高等优势,在实际应用中占据主导地位。文章聚焦单目场... 近年来,车辆三维目标检测在自动驾驶等智能交通领域备受关注。相较于二维检测,三维检测可精确估计目标在三维空间中的位置、尺寸与姿态等信息。因单目相机具备成本低、数据处理效率高等优势,在实际应用中占据主导地位。文章聚焦单目场景下的三维目标检测方法,系统梳理其发展脉络。首先,依据先验信息来源,将检测方法分为基于几何信息、二维目标检测与几何信息约束、三维特征估计三类,并分别剖析了每类方法中代表性算法的核心思想及其优缺点。其次,介绍领域内常用的公共数据集与评价指标,并在KITTI数据集上对典型算法的实验结果进行量化对比。最后,结合当前研究现状,剖析该领域现存的主要问题,并展望未来发展趋势。 展开更多
关键词 智能交通 单目相机 三维目标检测 深度学习
在线阅读 下载PDF
道路场景下基于地平线检测的相机自标定优化 被引量:1
13
作者 何国涛 赵春辉 +1 位作者 刘振宇 王龙 《计算机与现代化》 2025年第2期77-85,共9页
当前交通场景下的相机标定,主要是基于道路场景的关键信息,并依赖道路虚线、平行线等冗余信息对相机标定参数进行优化。但是由于场景信息有限,消失点范围无法固定,同时由于相机自旋角的存在,使得相机标定结果存在一定的误差。本文从地... 当前交通场景下的相机标定,主要是基于道路场景的关键信息,并依赖道路虚线、平行线等冗余信息对相机标定参数进行优化。但是由于场景信息有限,消失点范围无法固定,同时由于相机自旋角的存在,使得相机标定结果存在一定的误差。本文从地平线检测入手,提出一种基于深度学习关键点检测的地平线检测算法,并将精度提升至82.46%;随后,在地平线检测基础上矫正相机自旋角,并利用地平线提供更严格的约束,从而实现相机自标定的参数优化。实验结果表明,在矫正相机自旋角及利用地平线提供更强的约束后,相机自标定参数获得了更快的收敛速度及最低1.79%的误差。 展开更多
关键词 单目相机 相机标定 深度学习 地平线检测 相机自旋角
在线阅读 下载PDF
一种基于单目视觉的立体光源信标配准算法
14
作者 何家浩 丁爽 +2 位作者 薛庆全 裴育斌 高志勇 《光学与光电技术》 2025年第5期40-49,共10页
针对有限纹理特征的合作光源信标以及单目相机的深度丢失问题,基于正方立体条框的光源信标分布条件,提出了一种快速的光源信标配准算法。该算法将2D-3D信标配准解耦为2D-2D基准平面信标的非迭代配准以及非基准平面信标的重投影估计配准... 针对有限纹理特征的合作光源信标以及单目相机的深度丢失问题,基于正方立体条框的光源信标分布条件,提出了一种快速的光源信标配准算法。该算法将2D-3D信标配准解耦为2D-2D基准平面信标的非迭代配准以及非基准平面信标的重投影估计配准。在基准平面的配准中,设计了一组由若干光源信标组成的标识基准角及其提取算法,并通过有权无向连接图的建立以及最大环的搜索,保证算法的鲁棒性。非基准平面配准则利用平面配准后完成位姿估计,进而计算光源信标的重投影点,并利用最近邻准则完成配准。通过仿真实验验证,该配准算法能够适应相机视角于俯仰偏航100°内的大范围变化,并能够于平均耗时200 ms内以100%的正确率完成150个光源信标的一对一配准。为无人机等设备的实时相对导航定位以及位姿测量提供可靠信息基础。 展开更多
关键词 光源信标 2D-3D配准 单目视觉 基准角配准 平面位姿估计
原文传递
基于单目视觉的阻力伞摆角测量方法
15
作者 刘增源 齐晓 +1 位作者 罗国雄 张卫生 《中国测试》 北大核心 2025年第S1期87-92,共6页
针对当前阻力伞摆角解算过程复杂的问题,该研究融合摄影测量与空间解析几何提出了基于单目视觉的阻力伞摆角解算方法。将单目车载高速相机安装在火箭橇滑车舱内,相机范围覆盖阻力伞主伞绳末端结点的运动范围,以阻力伞主伞绳摆动角度作... 针对当前阻力伞摆角解算过程复杂的问题,该研究融合摄影测量与空间解析几何提出了基于单目视觉的阻力伞摆角解算方法。将单目车载高速相机安装在火箭橇滑车舱内,相机范围覆盖阻力伞主伞绳末端结点的运动范围,以阻力伞主伞绳摆动角度作为阻力伞摆角;运用光束平差法对车载高速相机进行标定,解算其内外方位元素;运用共线条件方程、旋转矩阵、空间坐标平移解算主伞绳结点末端的像空间坐标;计算阻力伞主伞绳结点末端的运动轨迹与过主伞绳结点的物点、车载相机投影中心的空间直线的交点,该交点为主伞绳末端结点的真实空间坐标;进而计算出阻力伞的俯仰、水平摆角;将单目视觉伞摆角测量结果与双目视觉精密跟踪转台跟踪测量结果进行对比,单目视觉测量阻力伞俯仰摆角、水平摆角结果相较于双目视觉测量结果的均方根误差分别0.28°、0.3°,该结果表明单目视觉测量阻力伞摆角具有较高的准确性;分析单目视觉相较于双目视觉测量方法存在测量误差的来源;开发火箭滑车抛伞试验中阻力伞摆角计算软件,实现阻力伞摆角的高效解算。 展开更多
关键词 单目视觉 火箭橇 摆角 阻力伞 相机标定
在线阅读 下载PDF
基于视觉的2-R(Ps)&P(Ps)并联机器人误差补偿及标定
16
作者 冯洋洋 邵华 +1 位作者 张智 郭晓航 《组合机床与自动化加工技术》 北大核心 2025年第6期86-93,共8页
对于机器人特别是并联机器人替代传统数控机床进行加工是当前的主流趋势,从而对机器人的定位精度提出了更高的要求,误差补偿及运动学标定可以有效提高并联机器人末端定位精度。以新型2-R(Ps)&P(Ps)三平动自由度并联机器人为研究对象... 对于机器人特别是并联机器人替代传统数控机床进行加工是当前的主流趋势,从而对机器人的定位精度提出了更高的要求,误差补偿及运动学标定可以有效提高并联机器人末端定位精度。以新型2-R(Ps)&P(Ps)三平动自由度并联机器人为研究对象,提出了基于单目视觉的运动学标定方法,从而提高此类机器人末端定位精度。基于误差闭环矢量链法构建该机构的几何误差模型,得到影响动平台末端位姿的34项几何误差源,采用Sobol算法对其进行误差灵敏度分析,找出对末端误差影响较大的误差源。采用单目相机视觉标定的方法来获取末端位姿,该方法采用Eye in Hand的标定形式,通过视觉图像算法来获取标定板中靶点位置信息进行误差测量,再构建误差辨识方程,利用最小二乘法进行辨识,最后通过修正控制系统输入的方式完成误差补偿流程,进行运动学标定试验。通过该试验,标定前后误差值Δr′均值平均下降77.16%,最大值平均下降69.46%。标定试验结果表明,所提出的运动学标定方法具有一定的有效性,该标定方法适用于同类并联机器人误差标定。 展开更多
关键词 新型并联机器人 运动学标定 单目相机视觉 误差补偿策略
在线阅读 下载PDF
Monocular Visual-Inertial and Robotic-Arm Calibration in a Unifying Framework
17
作者 Yinlong Zhang Wei Liang +3 位作者 Mingze Yuan Hongsheng He Jindong Tan Zhibo Pang 《IEEE/CAA Journal of Automatica Sinica》 SCIE EI CSCD 2022年第1期146-159,共14页
Reliable and accurate calibration for camera,inertial measurement unit(IMU)and robot is a critical prerequisite for visual-inertial based robot pose estimation and surrounding environment perception.However,traditiona... Reliable and accurate calibration for camera,inertial measurement unit(IMU)and robot is a critical prerequisite for visual-inertial based robot pose estimation and surrounding environment perception.However,traditional calibrations suffer inaccuracy and inconsistency.To address these problems,this paper proposes a monocular visual-inertial and robotic-arm calibration in a unifying framework.In our method,the spatial relationship is geometrically correlated between the sensing units and robotic arm.The decoupled estimations on rotation and translation could reduce the coupled errors during the optimization.Additionally,the robotic calibration moving trajectory has been designed in a spiral pattern that enables full excitations on 6 DOF motions repeatably and consistently.The calibration has been evaluated on our developed platform.In the experiments,the calibration achieves the accuracy with rotation and translation RMSEs less than 0.7°and 0.01 m,respectively.The comparisons with state-of-the-art results prove our calibration consistency,accuracy and effectiveness. 展开更多
关键词 CALIBRATION inertial measurement unit(IMU) monocular camera robotic arm spiral moving trajectory
在线阅读 下载PDF
单目视觉在仿生蜘蛛中的识别与测距应用
18
作者 朱旭 黄明 《机械研究与应用》 2025年第5期85-88,93,共5页
随着仿生机器人的迅速发展及应用,关于目标信息反馈的测量方法引起了广泛关注。目前,大多数目标识别和测距方法依赖于在仿生机器人上安装雷达或双目相机等辅助装置。然而,受限于仿生机器人的资源,需要开发更轻量化、低成本且易于部署的... 随着仿生机器人的迅速发展及应用,关于目标信息反馈的测量方法引起了广泛关注。目前,大多数目标识别和测距方法依赖于在仿生机器人上安装雷达或双目相机等辅助装置。然而,受限于仿生机器人的资源,需要开发更轻量化、低成本且易于部署的解决方案。因此,提出了一种基于仿生蜘蛛姿态调节能力与单目相机相结合的目标检测与测距方案。该方案首先利用YOLOv5模型识别图像中的目标物体;随后,通过MATLAB对相机进行标定,获取内外参数,并对图像进行预处理、立体匹配与目标深度计算;最终得到目标物体相对于仿生蜘蛛左姿态下相机的距离。实验结果验证了该方案在目标检测与测距任务中的有效性。 展开更多
关键词 仿生机器人 信息反馈 YOLO 单目相机
在线阅读 下载PDF
单目实时全身联合动作捕捉系统设计与实现
19
作者 黄东晋 俞乐洋 +1 位作者 马雨奇 王艳丽 《工业控制计算机》 2025年第2期70-72,共3页
单目全身联合动作捕捉是计算机视觉领域一项非常具有挑战性的任务。传统单目全身联合动捕方法专注于提升在复杂环境中的动捕准确性,却忽视了其在实际应用中的实时性需求。此外,由于缺乏带有人脸表情标签的大规模数据集,传统单目全身联... 单目全身联合动作捕捉是计算机视觉领域一项非常具有挑战性的任务。传统单目全身联合动捕方法专注于提升在复杂环境中的动捕准确性,却忽视了其在实际应用中的实时性需求。此外,由于缺乏带有人脸表情标签的大规模数据集,传统单目全身联合动捕方法难以准确捕捉人脸表情细节。因此,基于单个单目RGB相机,设计并实现了一种能够在移动端对人的身体、手部和面部进行实时联合动作捕捉的纯视觉动捕系统。在身体和手部姿态估计方面,采用Mediapipe机器学习框架,基于其在运算速度和跨平台支持等方面的出色表现,系统可以在移动端实现准确且实时的三维人体和手部姿态估计;在面部表情捕捉方面,采用一种具有情绪感知能力的轻量级卷积神经网络来实时地从输入人脸图片端到端回归人脸表情和头姿系数。实验结果表明,该系统基于移动端单目RGB相机可以实现人的身体、手部和面部表情的实时联合动作捕捉,并且全身动作捕捉效果逼真,面部表情捕捉准确。 展开更多
关键词 单目RGB相机 全身联合动作捕捉 移动端 实时
在线阅读 下载PDF
基于单目视觉的路面病害识别及定位
20
作者 管德永 孟令伟 赵刚 《计算机应用与软件》 北大核心 2025年第7期199-204,共6页
针对道路检测中路面裂缝分类精度低和路面病害定位成本高的问题,提出一种基于单目视觉的路面病害识别定位方法。该方法分为两个阶段实现,利用YOLOv5完成第一阶段的检测,输出检测框及初始类别,第二阶段利用类别调整及单目定位算法,将路... 针对道路检测中路面裂缝分类精度低和路面病害定位成本高的问题,提出一种基于单目视觉的路面病害识别定位方法。该方法分为两个阶段实现,利用YOLOv5完成第一阶段的检测,输出检测框及初始类别,第二阶段利用类别调整及单目定位算法,将路面图片转换至正投影视角,计算出病害的位置和尺寸,并对初始类别进行调整。实验表明,该算法的分类准确率可达90%,对目标的定位和测量精度可达厘米级别,且算力要求低,仅用单个相机同时实现路面病害检测及定位,可满足路面养护工程实时检测的要求。 展开更多
关键词 路面病害 单目视觉 目标检测 目标定位 倾斜视角
在线阅读 下载PDF
上一页 1 2 12 下一页 到第
使用帮助 返回顶部