期刊文献+
共找到364篇文章
< 1 2 19 >
每页显示 20 50 100
Sensor planning method for visual tracking in 3D camera networks 被引量:1
1
作者 Anlong Ming Xin Chen 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2014年第6期1107-1116,共10页
Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks a... Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks are usually simplified as 2D points in previous literature. However in actual application scenes, not only cameras are always heterogeneous with different height and action radiuses, but also the observed objects are with 3D features(i.e., height). This paper presents a sensor planning formulation addressing the efficiency enhancement of visual tracking in 3D heterogeneous camera networks that track and detect people traversing a region. The problem of sensor planning consists of three issues:(i) how to model the 3D heterogeneous cameras;(ii) how to rank the visibility, which ensures that the object of interest is visible in a camera's field of view;(iii) how to reconfigure the 3D viewing orientations of the cameras. This paper studies the geometric properties of 3D heterogeneous camera networks and addresses an evaluation formulation to rank the visibility of observed objects. Then a sensor planning method is proposed to improve the efficiency of visual tracking. Finally, the numerical results show that the proposed method can improve the tracking performance of the system compared to the conventional strategies. 展开更多
关键词 camera model sensor planning camera network visual tracking
在线阅读 下载PDF
移动机器人基于视觉的导航综述
2
作者 胡章芳 张薇 《半导体光电》 北大核心 2026年第1期28-39,共12页
视觉导航作为移动机器人自主运行的核心技术支撑,其性能直接决定移动机器人的环境感知精度、定位建图可靠性与路径规划的合理性。文章系统综述移动机器人视觉导航的研究进展,围绕视觉传感器、同步定位与地图构建(Simultaneous Localizat... 视觉导航作为移动机器人自主运行的核心技术支撑,其性能直接决定移动机器人的环境感知精度、定位建图可靠性与路径规划的合理性。文章系统综述移动机器人视觉导航的研究进展,围绕视觉传感器、同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)和路径规划三大核心环节展开分析:在视觉传感器层面,重点探讨单模态、多模态融合视觉传感器和新型视觉传感器的技术特性与适配场景;在SLAM层面,总结传统几何SLAM、多模态融合SLAM以及神经隐式SLAM的技术演进与性能优势;在路径规划层面,重点介绍传统算法与生物启发算法的特点与适用场景。最后,总结当前技术面临的挑战,并对未来研究方向进行展望,为视觉导航技术的进一步发展提供参考。 展开更多
关键词 视觉导航 多模态融合 事件相机 神经隐式SLAM 路径规划
原文传递
视场约束下无人机动态降落图像视觉伺服控制
3
作者 郭涵宇 宋韬 +3 位作者 叶建川 祝海 周颉鑫 朱效洲 《兵工学报》 北大核心 2026年第2期225-240,共16页
基于图像视觉伺服(Image-Based Visual Servoing, IBVS)的四旋翼无人机(Unmanned Aerial Vehicle, UAV)系统是一个具有耦合特性的非线性系统,其在降落及跟踪过程中的姿态变化会造成地面目标脱离视场(Field of View, FOV),导致控制失效... 基于图像视觉伺服(Image-Based Visual Servoing, IBVS)的四旋翼无人机(Unmanned Aerial Vehicle, UAV)系统是一个具有耦合特性的非线性系统,其在降落及跟踪过程中的姿态变化会造成地面目标脱离视场(Field of View, FOV),导致控制失效。为解决此问题,提出一种考虑FOV约束的控制方法,并设计高阶滑模观测器(Higher Order Sliding Mode Observer, HOSMO)估计集总扰动。基于虚拟图像平面和图像矩特征构建系统模型,设计基于IBVS及HOSMO补偿的模型预测控制方法,并分析稳定性。结合FOV约束条件得到姿态动态边界,进而引入FOV约束,并分析约束的有效性。仿真结果表明,所提方法实现了UAV对机动目标的稳定跟踪,高度方向的跟踪误差降低约49%,同时在FOV约束下,实现了UAV对位于FOV边缘的机动目标的稳定跟踪和准确降落,对比现有方法扩展了基于IBVS的跟踪及降落包线。 展开更多
关键词 无人机 基于图像视觉伺服 虚拟相机 自主降落 视场约束
在线阅读 下载PDF
基于单目相机的轨道交通列车智能视觉定位方法
4
作者 曹咸航 柴铭 +5 位作者 马奇飞扬 武楠 梁嘉磊 朱裕峰 胡小雨 张竣淞 《兵器装备工程学报》 北大核心 2026年第2期211-220,共10页
连续准确定位是保障列车安全高效运行的关键。传统列车定位技术依赖轨旁设备,存在建设维护成本高、列车初始位置难获取等问题,基于视觉感知的列车自主定位技术受到广泛关注。本文中针对双目相机定位中相机姿态矫正困难、易受行车过程中... 连续准确定位是保障列车安全高效运行的关键。传统列车定位技术依赖轨旁设备,存在建设维护成本高、列车初始位置难获取等问题,基于视觉感知的列车自主定位技术受到广泛关注。本文中针对双目相机定位中相机姿态矫正困难、易受行车过程中震动干扰导致目标距离测量偏差过大的问题,提出一种基于单目相机的列车视觉定位方法。以公里标作为视觉信标,设计了一种增强型YOLOv5s-C3Attention-P2目标检测模型,该模型有效提升了对于公里标这类微小目标的检测能力。针对单目相机不具备景深信息的问题,提出基于PnP的视觉测距算法,利用相机姿态角修正视觉信标成像尺寸,实现目标距离的精确计算。针对轨道交通多个典型复杂场景开展实验,结果表明该方法较传统方法对公里标的检测精度提升了4.6%,测距误差稳定在2%~3%。 展开更多
关键词 轨道交通 目标检测模型 视觉定位 相机姿态估计 单目测距
在线阅读 下载PDF
利用视觉二维码的杆塔位姿动态监测
5
作者 刘锐 王琰 +1 位作者 张全 牛小骥 《导航定位学报》 北大核心 2026年第1期142-150,共9页
由于天气、温度等外界因素的影响,通信基站、输电塔和风力发电塔等杆塔式结构物会产生不同程度的位姿动态变化,为了保障信号强度及供电、发电效率,以及设备运行的安全性,需要一套高精度位姿动态变化监测方案。针对现有技术方案适用场景... 由于天气、温度等外界因素的影响,通信基站、输电塔和风力发电塔等杆塔式结构物会产生不同程度的位姿动态变化,为了保障信号强度及供电、发电效率,以及设备运行的安全性,需要一套高精度位姿动态变化监测方案。针对现有技术方案适用场景较为局限且传感器成本较高的问题,提出一种结合开源视觉基准系统AprilTag二维码和单目视觉的低成本接触式位姿动态变化的测量方案,在一般环境中实现对杆塔位姿动态变化的精密、稳定监测。通过蒙特卡洛仿真模拟、最小二乘法理论分析和六自由度运动平台的实测数据,对基于AprilTag的相机位姿估计精度进行定量评估。在视线距离为2.5 m的实验条件下的实测结果表明,该技术位移精度可达1.37 mm、0.32 mm、0.31 mm,姿态精度为0.024°、0.117°、0.112°,初步揭示该技术方案用于杆塔位姿动态监测的可行性。 展开更多
关键词 杆塔位姿动态监测 视觉二维码 相机位姿估计 蒙特卡洛方法 最小二乘方法
在线阅读 下载PDF
激光传感器感知环境信息和视觉融合的机器人定位研究
6
作者 范新明 朱锦新 邵俊 《激光杂志》 北大核心 2026年第2期216-221,共6页
为使机器人能够全面感知各种复杂环境,在确保移动位姿稳定的前提下,使其能在各种环境中均能实现稳定精确定位,提出基于激光传感器感知环境信息和视觉融合的机器人定位方法。该方法利用双目相机和激光传感器分别进行机器人空间标定和移... 为使机器人能够全面感知各种复杂环境,在确保移动位姿稳定的前提下,使其能在各种环境中均能实现稳定精确定位,提出基于激光传感器感知环境信息和视觉融合的机器人定位方法。该方法利用双目相机和激光传感器分别进行机器人空间标定和移动环境信息感知,将两者的结果统一到相同的坐标系中,获取机器人的全局移动位姿;依据该位姿结果,采用编码器与卡尔曼滤波方法全面融合机器人感知到的环境细节信息,从而准确确定机器人在空间中的位置。实验表明:该方法可以准确地调节关节夹角,使其平移误差均小于0.14%,而旋转角度误差均小于0.05°;并精确融合机器人激光成像信息与视觉信息,以此准确定位机器人当前位置。 展开更多
关键词 激光传感器 双目相机 参数矩阵 编码器 卡尔曼滤波 视觉融合
原文传递
岸桥锁销拆装平台视觉定位识别系统的冗余设计
7
作者 曹乐 刘兵 《现代制造技术与装备》 2026年第2期89-92,共4页
利用岸边桥式起重机上的锁销拆装平台进行锁销拆装作业时,锁销的定位与识别是机器人能否拆装成功的关键。采用视觉定位识别系统,可以让机器人具有“感知”能力,从而自主完成锁销的拆卸和安装工作。针对单一视觉系统在复杂工况下识别稳... 利用岸边桥式起重机上的锁销拆装平台进行锁销拆装作业时,锁销的定位与识别是机器人能否拆装成功的关键。采用视觉定位识别系统,可以让机器人具有“感知”能力,从而自主完成锁销的拆卸和安装工作。针对单一视觉系统在复杂工况下识别稳定性不足的问题,提出一种线激光与双目视觉相结合的冗余设计架构。该架构通过多源信息融合与主从切换策略,实现两套系统的优势互补与功能备份。实际应用表明,该冗余设计能够显著提升系统在恶劣环境下的识别稳定性和容错能力,有效保障锁销拆装作业的连续性,满足港口自动化设备对高可靠性的要求。 展开更多
关键词 集装箱锁销拆装平台 岸桥起重机 锁销识别 视觉定位 冗余设计 双目相机 线激光相机
在线阅读 下载PDF
A Survey on 3D Visual Tracking of Multicopters 被引量:5
8
作者 Qiang Fu Xiang-Yang Chen Wei He 《International Journal of Automation and computing》 EI CSCD 2019年第6期707-719,共13页
Three-dimensional(3 D) visual tracking of a multicopter(where the camera is fixed while the multicopter is moving) means continuously recovering the six-degree-of-freedom pose of the multicopter relative to the camera... Three-dimensional(3 D) visual tracking of a multicopter(where the camera is fixed while the multicopter is moving) means continuously recovering the six-degree-of-freedom pose of the multicopter relative to the camera. It can be used in many applications,such as precision terminal guidance and control algorithm validation for multicopters. However, it is difficult for many researchers to build a 3 D visual tracking system for multicopters(VTSMs) by using cheap and off-the-shelf cameras. This paper firstly gives an overview of the three key technologies of a 3 D VTSMs: multi-camera placement, multi-camera calibration and pose estimation for multicopters. Then, some representative 3 D visual tracking systems for multicopters are introduced. Finally, the future development of the 3D VTSMs is analyzed and summarized. 展开更多
关键词 Multicopter three-dimensional(3D)visual TRACKING camera PLACEMENT camera calibration POSE estimation
原文传递
Robust and Accurate Monocular Visual Navigation Combining IMU for a Quadrotor 被引量:9
9
作者 Wei Zheng Fan Zhou Zengfu Wang 《IEEE/CAA Journal of Automatica Sinica》 SCIE EI 2015年第1期33-44,共12页
In this paper, we present a multi-sensor fusion based monocular visual navigation system for a quadrotor with limited payload, power and computational resources. Our system is equipped with an inertial measurement uni... In this paper, we present a multi-sensor fusion based monocular visual navigation system for a quadrotor with limited payload, power and computational resources. Our system is equipped with an inertial measurement unit (IMU), a sonar and a monocular down-looking camera. It is able to work well in GPS-denied and markerless environments. Different from most of the keyframe-based visual navigation systems, our system uses the information from both keyframes and keypoints in each frame. The GPU-based speeded up robust feature (SURF) is employed for feature detection and feature matching. Based on the flight characteristics of quadrotor, we propose a refined preliminary motion estimation algorithm combining IMU data. A multi-level judgment rule is then presented which is beneficial to hovering conditions and reduces the error accumulation effectively. By using the sonar sensor, the metric scale estimation problem has been solved. We also present the novel IMU+3P (IMU with three point correspondences) algorithm for accurate pose estimation. This algorithm transforms the 6-DOF pose estimation problem into a 4-DOF problem and can obtain more accurate results with less computation time. We perform the experiments of monocular visual navigation system in real indoor and outdoor environments. The results demonstrate that the monocular visual navigation system performing in real-time has robust and accurate navigation results of the quadrotor. © 2014 Chinese Association of Automation. 展开更多
关键词 Aircraft cameras Motion estimation Navigation systems SONAR Units of measurement
在线阅读 下载PDF
Selection of Observation Position and Orientation in Visual Servoing with Eye-in-vehicle Configuration for Manipulator 被引量:2
10
作者 Hong-Xuan Ma Wei Zou +2 位作者 Zheng Zhu Chi Zhang Zhao-Bing Kang 《International Journal of Automation and computing》 EI CSCD 2019年第6期761-774,共14页
In this paper, we propose a method to select the observation position in visual servoing with an eye-in-vehicle configuration for the manipulator. In traditional visual servoing, the images taken by the camera may hav... In this paper, we propose a method to select the observation position in visual servoing with an eye-in-vehicle configuration for the manipulator. In traditional visual servoing, the images taken by the camera may have various problems, including being out of view, large perspective aberrance, improper projection area of object in images and so on. In this paper, we propose a method to determine the observation position to solve these problems. A mobile robot system with pan-tilt camera is designed, which calculates the observation position based on an observation and then moves there. Both simulation and experimental results are provided to validate the effectiveness of the proposed method. 展开更多
关键词 Eye-in-vehicle OBSERVATION POSITION mobile robot visual servoing pan-tilt camera platform
原文传递
Uncalibrated Path Planning in the Image Space for the Fixed Camera Configuration 被引量:3
11
作者 LIANG Xin-Wu HUANG Xin-Han WANG Min 《自动化学报》 EI CSCD 北大核心 2013年第6期759-769,共11页
基于图象的视觉 servoing 能被用来高效地控制机器人操纵者的运动。什么时候起始并且然而,需要的配置是远的是由许多研究人员,指出了如此的一条控制途径能由于它的本地性质受不了集中和稳定性问题。由指定足够的图象特征轨道在图象被... 基于图象的视觉 servoing 能被用来高效地控制机器人操纵者的运动。什么时候起始并且然而,需要的配置是远的是由许多研究人员,指出了如此的一条控制途径能由于它的本地性质受不了集中和稳定性问题。由指定足够的图象特征轨道在图象被列在后面,我们能利用基于图象的视觉 servoing 的本地集中和稳定性避免这些问题。因此,路径在图象空间计划是在最近的年里的机器人学的一个活跃研究话题。然而,几乎所有为 camera-in-hand 配置的盒子相关结果被建立。在这篇论文,我们建议 uncalibrated 为改正照相机配置的盒子的视觉路径计划算法。这个算法在射影的空格直接计算图象特征的轨道以便他们与僵硬天体运动兼容。由把旋转和翻译的射影的代表分解成他们的各自的正规形式,我们能容易插入内推他们在射影的空间的路径。然后,在图象飞机的图象特征的轨道能经由射影的路径被产生。这样,特征点的知识组织并且照相机内在的参数没被要求。验证建议算法的可行性和表演,基于 puma560 机器人,操纵者在这被给的模拟结果糊。 展开更多
关键词 路径规划算法 摄像机内参数 图像空间 配置 稳定性问题 图片 校准 视觉伺服
在线阅读 下载PDF
Seam Tracking and Visual Control for Robotic Arc Welding Based on Structured Light Stereovision 被引量:6
12
作者 De Xu, Min Tan, Xiaoguang Zhao, Zhiguo Tu Laboratory of Complex Systems and Intelligence Science, Institute of Automation, Chinese Academy of Sciences, Beijing 100080, PRC 《International Journal of Automation and computing》 EI 2004年第1期63-75,共13页
A real-time arc welding robot visual control system based on a local network with a multi-level hierarchy is developed in this paper. It consists of an intelligence and human-machine interface level, a motion planning... A real-time arc welding robot visual control system based on a local network with a multi-level hierarchy is developed in this paper. It consists of an intelligence and human-machine interface level, a motion planning level, a motion control level and a servo control level. The last three levels form a local real-time open robot controller, which realizes motion planning and motion control of a robot. A camera calibration method based on the relative movement of the end-effector connected to a robot is proposed and a method for tracking weld seam based on the structured light stereovision is provided. Combining the parameters of the cameras and laser plane, three groups of position values in Cartesian space are obtained for each feature point in a stripe projected on the weld seam. The accurate three-dimensional position of the edge points in the weld seam can be calculated from the obtained parameters with an information fusion algorithm. By calculating the weld seam parameter from position and image data, the movement parameters of the robot used for tracking can be determined. A swing welding experiment of type V groove weld is successfully conducted, the results of which show that the system has high resolution seam tracking in real-time, and works stably and efficiently. 展开更多
关键词 REAL time control visual control structured light vision camera and laser calibration weld seam tracking robotic arc welding
在线阅读 下载PDF
基于视觉检测的航天产品高精度对接系统研发 被引量:2
13
作者 魏乐愚 刘检华 崔金星 《北京理工大学学报》 北大核心 2025年第4期360-366,共7页
大型复杂航天产品舱段对接过程难度大,装配效率低,人员需求多,限制总装制造能力提升,现有的对接系统存在工装设备复杂、成本昂贵、精度不足等问题.基于大型航天产品提出了一种基于视觉检测的高精度航天产品对接系统设计方案,该系统包括... 大型复杂航天产品舱段对接过程难度大,装配效率低,人员需求多,限制总装制造能力提升,现有的对接系统存在工装设备复杂、成本昂贵、精度不足等问题.基于大型航天产品提出了一种基于视觉检测的高精度航天产品对接系统设计方案,该系统包括固定产品转运单元、对接部件夹持单元、部件轴线检测单元和部件销孔检测单元等,能实现产品的高精度自动对接.基于逆运动学算法,采用单个3D相机进行固定舱段和对接舱段的轴线识别,并采用高精度2D相机检测轴线旋转偏差,既保证安装定位精度,又可避免狭小空间布局条件下设备间干扰.通过试验验证,基于视觉检测的高精度舱段对接系统可提高航天器对接效率和对接精度,同时通过对对接过程数据实时监控,增强了航天器对接过程的安全性. 展开更多
关键词 舱段对接 轴线检测 视觉相机 逆运动学
在线阅读 下载PDF
Robust visual tracking for manipulators withunknown intrinsic and extrinsic parameters
14
作者 Chaoli WANG Xueming DING 《控制理论与应用(英文版)》 EI 2007年第4期420-426,共7页
This paper addresses the robust visual tracking of multi-feature points for a 3D manipulator with unknown intrinsic and extrinsic parameters of the vision system. This class of control systems are highly nonlinear con... This paper addresses the robust visual tracking of multi-feature points for a 3D manipulator with unknown intrinsic and extrinsic parameters of the vision system. This class of control systems are highly nonlinear control systems characterized as time-varying and strong coupling in states and unknown parameters. It is first pointed out that not only is the Jacobian image matrix nonsingular, but also its minimum singular value has a positive limit. This provides the foundation of kinematics and dynamics control of manipulators with visual feedback. Second, the Euler angle expressed rotation transformation is employed to estimate a subspace of the parameter space of the vision system. Based on the two results above, and arbitrarily chosen parameters in this subspace, the tracking controllers are proposed so that the image errors can be made as small as desired so long as the control gain is allowed to be large. The controller does not use visual velocity to achieve high and robust performance with low sampling rate of the vision system. The obtained results are proved by Lyapunov direct method. Experiments are included to demonstrate the effectiveness of the proposed controller. 展开更多
关键词 ROBUST visual tracking MANIPULATOR camera Intrinsic and extrinsic parameters
在线阅读 下载PDF
Large-scale Surveillance System based on Hybrid Cooperative Multi-Camera Tracking
15
作者 Xiao Yan Dan Xu Bo Yao 《Open Journal of Applied Sciences》 2013年第1期79-84,共6页
In this paper, we proposed an optimized real-time hybrid cooperative multi-camera tracking system for large-scale au-tomate surveillance based on embedded smart cameras including stationary cameras and moving pan/tilt... In this paper, we proposed an optimized real-time hybrid cooperative multi-camera tracking system for large-scale au-tomate surveillance based on embedded smart cameras including stationary cameras and moving pan/tilt/zoom (PTZ) cameras embedded with TI DSP TMS320DM6446 for intelligent visual analysis. Firstly, the overlapping areas and projection relations between adjacent cameras' field of view (FOV) is calculated. Based on the relations of FOV ob-tained and tracking information of each single camera, a homography based target handover procedure is done for long-term multi-camera tracking. After that, we fully implemented the tracking system on the embedded platform de-veloped by our group. Finally, to reduce the huge computational complexity, a novel hierarchical optimization method is proposed. Experimental results demonstrate the robustness and real-time efficiency in dynamic real-world environ-ments and the computational burden is significantly reduced by 98.84%. Our results demonstrate that our proposed sys-tem is capable of tracking targets effectively and achieve large-scale surveillance with clear detailed close-up visual features capturing and recording in dynamic real-life environments. 展开更多
关键词 EMBEDDED Systems Distributed SMART cameras COOPERATIVE visual TRACKING
在线阅读 下载PDF
基于单目相机的仓储托盘视觉检测研究 被引量:1
16
作者 张彦 曹磊 +1 位作者 肖献强 王家恩 《机械设计与制造》 北大核心 2025年第12期352-356,共5页
针对托盘搬运机器人(Automatic Guided Vehicle,AGV)在复杂环境下对仓储托盘存在错误感知、过大的定位误差等问题,提出了基于单目相机的仓储托盘视觉检测方法。用相机实时采集场景图像,以轻量级SSD神经网络进行全局图像识别,分割出相机... 针对托盘搬运机器人(Automatic Guided Vehicle,AGV)在复杂环境下对仓储托盘存在错误感知、过大的定位误差等问题,提出了基于单目相机的仓储托盘视觉检测方法。用相机实时采集场景图像,以轻量级SSD神经网络进行全局图像识别,分割出相机视野下目标托盘的感性区域,在感性区域内进行图像处理、线段拟合,并在此基础上,设计了仓储托盘的特征提取算法,通过相机内外参标定、坐标系转换获取世界坐标系下托盘的三维位姿。测试结果表明仓储托盘的视觉检测具有较高的识别率和精度,有效检测率达到90%,定位精度达到横向9mm、纵向10mm,为AGV在智能仓储及无人化工厂中对托盘的视觉检测研究提供了技术支撑。 展开更多
关键词 单目相机 神经网络 视觉检测 特征提取
在线阅读 下载PDF
基于多目相机识别航道的桥区异常船舶预警方法 被引量:1
17
作者 贺益雄 张锐 +2 位作者 杜子俊 徐录平 王兵 《武汉理工大学学报》 2025年第3期38-45,90,共9页
为减少因船舶偏离航道而造成的搁浅、碰撞航标或桥墩等水上交通事故,提出了一种基于多目相机自动识别航道的桥区航行异常船舶预警方法。基于YOLOv5(You Only Look Once version 5)目标检测算法,联动变、定焦相机识别并定位航标和船舶,... 为减少因船舶偏离航道而造成的搁浅、碰撞航标或桥墩等水上交通事故,提出了一种基于多目相机自动识别航道的桥区航行异常船舶预警方法。基于YOLOv5(You Only Look Once version 5)目标检测算法,联动变、定焦相机识别并定位航标和船舶,跟踪并记录船舶航迹点,计算船舶的速度和航向并推算船位。提出了一种基于视频船舶航迹点的密度聚类识别航道两侧航标的方法,实现航道自适应可视化。基于船位推算识别并预警航行状态异常的船舶。实验结果表明:航标、船舶的检测正确率分别达84.8%、90.3%,相较单一相机检测模型,正确率分别提高了32.1%、5.5%;能够自适应可视化航道并识别、预警航行异常船舶。 展开更多
关键词 航道可视化 多目相机联动 船舶目标检测 轨迹点聚类 航行预警
原文传递
精密仪器Camera Reader运用于体外诊断试剂(免疫法)目测眼光考核的研究
18
作者 项利汉 杜艳 李江竹 《中国医疗器械信息》 2012年第3期16-19,26,共5页
体外诊断试剂(免疫层析法)属于定性产品,目前判定测试结果主要采用目测方法。把检测结果与固定的色卡对比,将色卡上与线条强度最接近的档次作为检测结果,属于定性判定。为了减少人与人之间的目测差异,需通过定期的眼光考核来统一操作者... 体外诊断试剂(免疫层析法)属于定性产品,目前判定测试结果主要采用目测方法。把检测结果与固定的色卡对比,将色卡上与线条强度最接近的档次作为检测结果,属于定性判定。为了减少人与人之间的目测差异,需通过定期的眼光考核来统一操作者眼光。传统的眼光考核采用三人一组,以三人判定结果的均值作为考核判定依据,没有准确的客观参考值。Camera Reader是一种可以通过扫描线条强度输出定量结果的仪器。本文通过研究目测判读与机器判读的相关性,建立合理的眼光考核置信区间,以客观、精确的Camera Reader检测值作为眼光考核的参考值,提高考核方案的科学性和考核结果的准确性,达到统一眼光的考核目的。 展开更多
关键词 camera READER 体外诊断试剂 置信区间 眼光考核
暂未订购
“环境减灾二号”A/B卫星可视化遥测设计与多元应用
19
作者 马磊 丛强 +6 位作者 郝佳宁 白照广 董筠 朱军 陆春玲 韩延东 赵睿 《先进小卫星技术(中英文)》 2025年第5期40-48,共9页
为了提高“环境减灾二号”A/B(HJ-2A/B)卫星在轨关键动作执行的监测效果,设计了一种基于低成本监测相机的可视化遥测系统,介绍了该系统的功能和组成,并从可视化遥测技术、信道复用与数据多路径下传技术、低成本设计技术及单相机多用途... 为了提高“环境减灾二号”A/B(HJ-2A/B)卫星在轨关键动作执行的监测效果,设计了一种基于低成本监测相机的可视化遥测系统,介绍了该系统的功能和组成,并从可视化遥测技术、信道复用与数据多路径下传技术、低成本设计技术及单相机多用途设计技术等4个方面阐述了技术创新点。可视化遥测技术使得星箭分离等关键动作直观可视;信道复用技术节省了星地信道资源;低成本设计和单相机多用途设计为监测相机成为星上常规设备奠定了基础。根据太阳翼展开过程的图像数据,得到了太阳翼在轨展开过程的时间数据。通过测量星箭分离过程图像中运载火箭上的目标识别点,结合监测相机内外参数矩阵,在小卫星领域首次基于卫星数据获取了星箭分离相对速度数据,约为0.9 m/s。可视化遥测技术在HJ-2A/B卫星星箭分离、太阳翼展开等方面的成功应用,表明该技术具有良好的应用前景。最后,给出了该技术的后续发展建议。 展开更多
关键词 可视化遥测 监测相机 星箭分离 太阳翼 坐标系 卫星
在线阅读 下载PDF
复杂环境下无人机视觉惯性里程计设计 被引量:2
20
作者 汤琴琴 王立喜 +3 位作者 侍经纬 李春辉 刘云平 敖洋钒 《中国惯性技术学报》 北大核心 2025年第2期140-146,共7页
为提高无人机在快速移动、光照变化大等复杂环境下的位姿精度,设计了一种单目事件相机/单目标准相机/惯性测量装置(IMU)融合的视觉惯性里程计。首先利用IMU的角速度和视觉惯性里程计后端的线速度补偿事件帧的旋转和平移,生成高质量事件... 为提高无人机在快速移动、光照变化大等复杂环境下的位姿精度,设计了一种单目事件相机/单目标准相机/惯性测量装置(IMU)融合的视觉惯性里程计。首先利用IMU的角速度和视觉惯性里程计后端的线速度补偿事件帧的旋转和平移,生成高质量事件帧;其次采用BEBLID描述子提取算法增强事件帧和标准帧的特征匹配能力,使用基于帧的特征跟踪方法对事件帧和标准帧进行独立跟踪,结合随机抽样一致算法和三角测量进行深度估计,并以基于优化的方式将三种传感器进行紧耦合。最后在UZH-FPV数据集上进行了实验验证。实验结果表明,在明暗变化大的场景下,所提方法的无人机平均绝对定位误差相比PL-EVIO减小了19.6%;在高速场景下,相比Ultimate SLAM减小了46.9%。 展开更多
关键词 事件相机 视觉惯性里程计 运动补偿 图像匹配 无人机
在线阅读 下载PDF
上一页 1 2 19 下一页 到第
使用帮助 返回顶部