期刊文献+
共找到431篇文章
< 1 2 22 >
每页显示 20 50 100
Depth Estimation Based on Monocular Camera Sensors in Autonomous Vehicles: A Self‑supervised Learning Approach 被引量:2
1
作者 Guofa Li Xingyu Chi Xingda Qu 《Automotive Innovation》 EI CSCD 2023年第2期268-280,共13页
Estimating depth from images captured by camera sensors is crucial for the advancement of autonomous driving technologies and has gained significant attention in recent years.However,most previous methods rely on stac... Estimating depth from images captured by camera sensors is crucial for the advancement of autonomous driving technologies and has gained significant attention in recent years.However,most previous methods rely on stacked pooling or stride convolution to extract high-level features,which can limit network performance and lead to information redundancy.This paper proposes an improved bidirectional feature pyramid module(BiFPN)and a channel attention module(Seblock:squeeze and excitation)to address these issues in existing methods based on monocular camera sensor.The Seblock redistributes channel feature weights to enhance useful information,while the improved BiFPN facilitates efficient fusion of multi-scale features.The proposed method is in an end-to-end solution without any additional post-processing,resulting in efficient depth estimation.Experiment results show that the proposed method is competitive with state-of-the-art algorithms and preserves fine-grained texture of scene depth. 展开更多
关键词 Autonomous vehicle camera sensor Deep learning Depth estimation Self-supervised
原文传递
Sensor planning method for visual tracking in 3D camera networks 被引量:1
2
作者 Anlong Ming Xin Chen 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2014年第6期1107-1116,共10页
Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks a... Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks are usually simplified as 2D points in previous literature. However in actual application scenes, not only cameras are always heterogeneous with different height and action radiuses, but also the observed objects are with 3D features(i.e., height). This paper presents a sensor planning formulation addressing the efficiency enhancement of visual tracking in 3D heterogeneous camera networks that track and detect people traversing a region. The problem of sensor planning consists of three issues:(i) how to model the 3D heterogeneous cameras;(ii) how to rank the visibility, which ensures that the object of interest is visible in a camera's field of view;(iii) how to reconfigure the 3D viewing orientations of the cameras. This paper studies the geometric properties of 3D heterogeneous camera networks and addresses an evaluation formulation to rank the visibility of observed objects. Then a sensor planning method is proposed to improve the efficiency of visual tracking. Finally, the numerical results show that the proposed method can improve the tracking performance of the system compared to the conventional strategies. 展开更多
关键词 camera model sensor planning camera network visual tracking
在线阅读 下载PDF
Stereoscopic Camera-Sensor Model for the Development of Highly Automated Driving Functions within a Virtual Test Environment
3
作者 René Degen Martin de Fries +3 位作者 Alexander Nüßgen Marcus Irmer Mats Leijon Margot Ruschitzka 《Journal of Transportation Technologies》 2023年第1期87-114,共28页
The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments... The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments and virtual sensor models. In the context of this, the present paper documents the development of a sensor model for depth estimation of virtual three-dimensional scenarios. For this purpose, the geometric and algorithmic principles of stereoscopic camera systems are recreated in a virtual form. The model is implemented as a subroutine in the Epic Games Unreal Engine, which is one of the most common Game Engines. Its architecture consists of several independent procedures that enable a local depth estimation, but also a reconstruction of a whole three-dimensional scenery. In addition, a separate programme for calibrating the model is presented. In addition to the basic principles, the architecture and the implementation, this work also documents the evaluation of the model created. It is shown that the model meets specifically defined requirements for real-time capability and the accuracy of the evaluation. Thus, it is suitable for the virtual testing of common algorithms and highly automated driving functions. 展开更多
关键词 sensor Model Virtual Test Environment Stereoscopic camera Unreal Engine OPENCV ADAS/AD
在线阅读 下载PDF
视觉和激光SLAM发展综述与展望 被引量:3
4
作者 程亮 罗洲 +1 位作者 何赟泽 陈永灿 《中国测试》 北大核心 2025年第6期1-16,共16页
同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地... 同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地图构建这四个模块的作用以及所采用的算法;在这之后梳理归纳视觉/激光SLAM发展历程中的经典算法并分析其优缺点以及在此之后优秀的改进方案;此外,列举当前SLAM技术在生活中的典型应用场景,展示在自动驾驶、无人化装备等领域的重要作用;最后讨论SLAM系统当前的发展趋势和研究进展,以及在未来应用中需要考虑的挑战和问题,包括多类型传感器融合、与深度学习技术的融合以及跨学科合作的关键作用。通过对SLAM技术的全面分析和讨论,为进一步推动SLAM技术的发展和应用提供深刻的理论指导和实践参考。 展开更多
关键词 同时定位与地图构建 相机 激光雷达 多传感器融合
在线阅读 下载PDF
基于多传感器融合的堆叠棒料识别和抓取 被引量:1
5
作者 卢欣龙 赵岩 +3 位作者 代凡 李棋 杨凌云 方辉 《机械工程师》 2025年第3期27-31,35,共6页
针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距... 针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距离数据,获取棒料中心位置的深度信息。最后引导机械臂到达指定位置进行棒料抓取。实验表明,在误差允许范围内,通过多传感器引导机械臂寻找并抓取棒料具有良好的准确性。 展开更多
关键词 相机标定 多传感器融合 轮廓检测 物体抓取
在线阅读 下载PDF
多视图相机传感器与多模态特征融合的三维重建
6
作者 尉艳丽 张素智 《传感器与微系统》 北大核心 2025年第11期101-105,共5页
针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另... 针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另外,从多视图二维(2D)图像中提取颜色、深度、语义学等多模态特征,通过动态调整特征的重要性来准确捕捉关键区域。实验结果表明,本文模型在局部光场融合(LLFF)和丹麦技术大学(DTU)数据集上的3D重建表现优于现有主流模型,模型在3视图、6视图和9视图输入的峰值信噪比(PSNR)指标分别达到20.01、23.56和24.58。本文模型在复杂场景和多视图变化中表现出较强的鲁棒性,验证了模型的有效性和可靠性。 展开更多
关键词 多视图相机传感器 多模态特征融合 三维重建
在线阅读 下载PDF
基于多特征匹配的点云与图像的融合方法
7
作者 许浩 王肖霞 杨风暴 《激光杂志》 北大核心 2025年第3期105-112,共8页
无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的... 无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的融合方法,使得融合得到的数据同时具备点云的空间立体特性与可见光图像的彩色纹理信息。该方法首先通过平面标定板对激光雷达和相机进行标定获取初始变换关系,然后利用二者传感器共同视野中的自然边缘特征进行对齐,最后将二者数据融合并得到可视化结果。所提方法相比于基于人工匹配的标定融合方法以及基于平面标定板的自动标定融合的方法,精度分别提升了33.8%和23.1%,可视化结果很好地还原了真实场景。 展开更多
关键词 激光雷达 可见光相机 外参标定 传感器融合
原文传递
基于RGB图像与改进YOLOv8的花卉作物表型方法研究
8
作者 胡瑶 袁畅 +2 位作者 接浩 刘庆华 刘泓锐 《电子设计工程》 2025年第22期10-14,19,共6页
为提高花卉收割和修剪等劳动力密集型工作的效率,采用了一种基于RGB图像和改进YO⁃LOv8的花卉作物表型方法。通过RGB-D获取树干和树枝等数据,并构建基于YOLOv8x-seg的树干和树枝分割算法,采用主成分分析方法(Principal Component Analysi... 为提高花卉收割和修剪等劳动力密集型工作的效率,采用了一种基于RGB图像和改进YO⁃LOv8的花卉作物表型方法。通过RGB-D获取树干和树枝等数据,并构建基于YOLOv8x-seg的树干和树枝分割算法,采用主成分分析方法(Principal Component Analysis,PCA)估算树枝截面的大小和方向,通过估计的树枝直径推算树枝截面面积(Limb Cross Section Area,LCSA),该面积可作为作物负荷估算的输入,LCSA越大,表明树枝的潜在开花能力越强。由实验结果可知,改进后模型的F1-score较原YOLOv8n-seg模型提高了4.0%。同时,精确度(Precision)和召回率(Recall)相较于原模型分别提高了3.0%和4.0%,优于其他对比目标检测算法。 展开更多
关键词 深度学习 机器视觉 目标检测 YOLOv8 负荷估算 相机传感器
在线阅读 下载PDF
图像角点与点云曲率渲染边界特征下的雷视一体标定 被引量:1
9
作者 张代聪 李倩 +2 位作者 余继龙 陈文博 罗宝琪 《西安工程大学学报》 2025年第2期109-117,共9页
激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者... 激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者其他自然场景特征点选取的方法,对激光雷达与相机的外参进行标定。该方法结合了点云的曲率渲染边界特征辅助特征点的选取以及二维图像角点提取算法,能够方便快捷地实现具有自然特征的场景下的雷视一体外参标定。实验结果表明:标定的最大平移向量均值误差为34 mm,最大旋转向量均值误差为0.493°,能够满足常用的厘米级激光雷达和相机雷视一体标定的需求。 展开更多
关键词 多传感器 雷视标定 图像角点 曲率渲染 激光雷达
在线阅读 下载PDF
激光雷达与相机外参标定方法研究综述
10
作者 黄跃成 曹成 《辽宁师专学报(自然科学版)》 2025年第3期26-34,共9页
激光雷达(LiDAR)与相机的外参标定是实现多模态感知融合的关键步骤,直接影响自动驾驶、机器人等系统在环境感知、三维重建和目标定位等任务中的精度与稳定性.研究系统梳理并分析现有LiDAR-相机外参标定方法,按传统几何标定方法、基于特... 激光雷达(LiDAR)与相机的外参标定是实现多模态感知融合的关键步骤,直接影响自动驾驶、机器人等系统在环境感知、三维重建和目标定位等任务中的精度与稳定性.研究系统梳理并分析现有LiDAR-相机外参标定方法,按传统几何标定方法、基于特征匹配的无标定物方法及深度学习方法进行分类阐述.通过对比各类方法的技术原理、实验流程、精度表现及其在不同应用场景下的优劣,揭示当前标定方法在自动化程度、环境依赖性及鲁棒性等方面面临的挑战.同时,对联合标定未来发展方向进行展望,涵盖自监督学习、动态场景下的在线标定及多传感器联合优化等内容,为后续研究提供理论参考. 展开更多
关键词 激光雷达 相机标定 外参估计 几何方法 深度学习 多传感器融合
在线阅读 下载PDF
基于自适应加权融合的盾构管片精确定位方法
11
作者 王凯峰 王悦晨 +4 位作者 吴委员 王涛涌 崔望朔 朱晨 邓斌 《工程设计学报》 北大核心 2025年第5期601-612,共12页
为提升盾构管片自动拼装过程中位姿检测系统的精度和环境适应能力,提出了一种融合线激光传感器与RGB-D相机的高鲁棒性多源定位方法。在感知层面,利用5个线激光传感器提取管片的边缘特征,并结合几何模型推算其弧边与直边交点的坐标,以实... 为提升盾构管片自动拼装过程中位姿检测系统的精度和环境适应能力,提出了一种融合线激光传感器与RGB-D相机的高鲁棒性多源定位方法。在感知层面,利用5个线激光传感器提取管片的边缘特征,并结合几何模型推算其弧边与直边交点的坐标,以实现对管片位姿的估计;同时,设计靶标系统,借助RGB-D相机获取管片图像与深度信息,并通过坐标变换来解算靶标相对于拼装机器人末端的空间姿态。针对单一传感器易受环境干扰的局限性,提出了改进的自适应加权融合(improved adaptive weighted fusion,IAWF)算法,基于观测支持度和测量方差动态调整权重,以实现高精度与高鲁棒性的融合定位。最后,通过仿真来验证IAWF算法在传感器异常条件下的稳定性与优越性;同时,构建融合定位实验平台,评估IAWF算法在正常、低光照及线激光测量数据异常等多种工况下的定位性能。结果表明,所提出的融合定位方法在保持高测量精度的同时显著提升了管片位姿检测系统在复杂环境下的抗干扰能力,平均位置误差降低了28.4%,平均姿态误差降低了34.2%,优于单一传感器的测量效果;管片拼装的最大错台和最大间隙分别为4.8 mm和4.6 mm,满足实际工程要求。研究结果为盾构管片自动化拼装的智能感知系统设计提供了理论依据与技术支撑。 展开更多
关键词 盾构管片 位姿检测 融合定位 线激光传感器 RGB-D相机
在线阅读 下载PDF
铁路货车检修系统机器人自动焊接工作站研制
12
作者 李洪涛 林彦洋 +4 位作者 付傲 李荣 赵宝 石玮 袁鑫 《机械制造文摘(焊接分册)》 2025年第5期33-37,共5页
针对当前铁路货车修补作业中存在的待修车体破损程度大、人工修补难度高及工作量繁重等突出问题,研究基于六轴机器人技术,研制了铁路货车检修系统中的机器人自动焊接工作站,对铁路货车检修系统机器人自动焊接工作站的结构概况、机器人... 针对当前铁路货车修补作业中存在的待修车体破损程度大、人工修补难度高及工作量繁重等突出问题,研究基于六轴机器人技术,研制了铁路货车检修系统中的机器人自动焊接工作站,对铁路货车检修系统机器人自动焊接工作站的结构概况、机器人程序、激光跟踪、控制流程及操作界面做了详细的说明,同时也对该系统的工作状态做了介绍。 展开更多
关键词 机器人 货车检修 激光跟踪 激光传感器 名弧摄像
在线阅读 下载PDF
常见环境感知传感器在智能驾驶领域的应用与发展趋势 被引量:2
13
作者 李翊轩 查云飞 《汽车文摘》 2025年第4期12-22,共11页
为满足智能驾驶对精准环境感知的需求,聚焦智能驾驶环境感知传感器的应用与发展,解析其在系统架构中的基础性地位。讨论了视觉传感器、激光雷达、毫米波雷达和超声波雷达等各类传感器的工作机制、应用场景以及优劣势,分析了多传感器融... 为满足智能驾驶对精准环境感知的需求,聚焦智能驾驶环境感知传感器的应用与发展,解析其在系统架构中的基础性地位。讨论了视觉传感器、激光雷达、毫米波雷达和超声波雷达等各类传感器的工作机制、应用场景以及优劣势,分析了多传感器融合对提高感知精度与智能驾驶可靠性的影响。未来,智能车辆的环境感知传感器技术将围绕新型传感材料、智能自适应、节能设计、故障诊断、实时校准和环境影响抑制6大方向发展;传感器将向小型化、集成化及自适应低功耗设计方面持续演进;将在车载摄像头高精度化、激光雷达固态化、超声波雷达融合创新等方面取得更大突破,以提升传感精确度、实时性和可靠性,满足日益复杂的驾驶环境需求。 展开更多
关键词 智能驾驶 环境感知传感器 摄像头 激光雷达 毫米波雷达 超声波雷达
在线阅读 下载PDF
无光动态环境下的AGV定位导航系统
14
作者 崔云轩 刘桂华 +1 位作者 明吉花 龚云鑫 《计算机应用与软件》 北大核心 2025年第10期109-117,共9页
针对无光动态环境下的AGV(Automated Guidance Vehicle)无法有效规避三维障碍物的问题,提出多传感器信息融合的AGV定位导航技术。通过点云距离筛选机制融合三维点云与二维激光数据,并基于图优化算法实现多传感器融合的定位及二维栅格地... 针对无光动态环境下的AGV(Automated Guidance Vehicle)无法有效规避三维障碍物的问题,提出多传感器信息融合的AGV定位导航技术。通过点云距离筛选机制融合三维点云与二维激光数据,并基于图优化算法实现多传感器融合的定位及二维栅格地图构建;在A*算法中引入自适应障碍物权重,并优化路径拐点;在DWA(Dynamic Window Approach)中添加深度相机观测的距离函数,实现AGV的动态路径规划。实验结果表明,该系统的定位精度为3.34 cm,且能够有效规避二维激光雷达无法观测的障碍物,使得路径规划时间缩短了37.4%,提高了AGV的运行效率。 展开更多
关键词 无光环境 深度相机 二维激光雷达 多传感器融合 三维避障 路径规划
在线阅读 下载PDF
激光雷达和相机传感器融合的两阶段3D目标检测
15
作者 洪宝惜 范智淳 柳萍萍 《传感器与微系统》 北大核心 2025年第11期110-114,共5页
针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达... 针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达的几何信息与相机的纹理信息,采用感兴趣区域(RoI)池化技术统一处理多模态数据,并设计模态内自注意力与交叉注意力机制实现特征增强与信息融合。实验证明,在KITTI和Waymo基准测试中,FusionDetect不仅使主流检测器性能获得突破性提升,更在Waymo数据集上以6.45%的平均精度均值(mAP)提升超越基线模型,显著优于现有两阶段方法。研究成果验证了多模态传感器融合在提升3D目标检测精度方面的关键作用。 展开更多
关键词 3D目标检测 传感器融合 激光雷达 相机 多模态数据 注意力机制
在线阅读 下载PDF
智能汽车多源融合环境感知系统综述 被引量:2
16
作者 李周达 查云飞 《汽车文摘》 2025年第4期1-11,共11页
为了系统总结智能汽车多源融合环境感知技术的研究现状,对比分析了摄像头、激光雷达、毫米波雷达等传感器的原理与特性,综述了基于单传感器(如相机目标检测、激光雷达点云处理)及多传感器融合(数据层、特征层、决策层)的环境感知技术,... 为了系统总结智能汽车多源融合环境感知技术的研究现状,对比分析了摄像头、激光雷达、毫米波雷达等传感器的原理与特性,综述了基于单传感器(如相机目标检测、激光雷达点云处理)及多传感器融合(数据层、特征层、决策层)的环境感知技术,分析了其技术瓶颈与挑战,并结合典型算法案例探讨其应用效果。研究表明:单一传感器存在固有局限性,如相机依赖光照条件、激光雷达成本高昂且无法获取语义信息;多传感器融合技术通过互补优势显著提升环境感知的鲁棒性,但数据异构性、实时性不足等问题仍需突破。为了应对复杂场景下的感知需求,智能化多模态融合算法、高性价比传感器集成及V2X协同感知技术是未来重点发展方向。 展开更多
关键词 智能汽车 环境感知 多传感器融合 相机 激光雷达
在线阅读 下载PDF
高效场景表征的机器人实时SLAM算法
17
作者 舒志旭 李源 《传感器与微系统》 北大核心 2025年第10期152-155,159,共5页
针对基于三维高斯溅射(3D GS)的同时定位与地图结构建(SLAM)技术在机器人应用中存在的高内存和存储成本问题,提出一种高效场景表征的机器人实时SLAM算法,使用RGB-D相机传感器采用滑动窗口屏蔽策略动态剔除冗余椭球体、基于几何码本的量... 针对基于三维高斯溅射(3D GS)的同时定位与地图结构建(SLAM)技术在机器人应用中存在的高内存和存储成本问题,提出一种高效场景表征的机器人实时SLAM算法,使用RGB-D相机传感器采用滑动窗口屏蔽策略动态剔除冗余椭球体、基于几何码本的量化方法压缩几何属性、结合重投影损失的局部到全局束平差3种优化策略,提升姿态估计的鲁棒性和精度。实验表明,该系统在保持与现有方法相当的场景表示质量的同时,显著提升了计算效率:渲染速度提高150%,内存占用减少1.8倍,同时姿态估计精度提升20%,为机器人高效导航与操作提供了轻量化、高精度的解决方案。 展开更多
关键词 机器人 三维高斯溅射 高效场景表征 同时定位与地图构建 RGB-D相机传感器
在线阅读 下载PDF
基于CMOS图像传感器的智能摄像头设计
18
作者 李思彤 马清晨 +2 位作者 石飞燕 周苏毅 夏百花 《无线互联科技》 2025年第1期19-23,共5页
当前,老龄化的人口问题、老年人的监护问题等日益成为社会的课题。鉴于中国独特的养老习惯——以依赖家庭和养老机构的养老模式为主,老年人往往难以应对突发的棘手问题。现在的视频监控系统大多由人实时监控。不间断的监控方式涉及老人... 当前,老龄化的人口问题、老年人的监护问题等日益成为社会的课题。鉴于中国独特的养老习惯——以依赖家庭和养老机构的养老模式为主,老年人往往难以应对突发的棘手问题。现在的视频监控系统大多由人实时监控。不间断的监控方式涉及老人不易接受的个人隐私问题。为提高老年人的生活质量,文章设计一种基于视频的老年人智能安全监测系统。该系统在运作期间通过构建关键技术异常模式库,实现对这些异常模式的精准识别。这一举措旨在加速老年人安全监测技术的研发进程,拓宽其在实际应用中的推广范围。 展开更多
关键词 CMOS 图像传感器 智能摄像头
在线阅读 下载PDF
基于多传感器融合的无人车目标检测系统研究
19
作者 陈晓锋 李郁峰 +3 位作者 王传松 郭荣 樊宏丽 朱堉伦 《激光杂志》 北大核心 2025年第5期94-100,共7页
针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov... 针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov5算法对预处理后的点云数据和图像数据进行迁移训练和目标检测得到检测框,最后使用交并比匹配、D-S证据理论和加权框融合方法对目标结果进行融合。通过实车试验,得出提出的融合方法在激光雷达和相机的决策级融合场景中能够有效结合两者的优势,实现对环境的更全面感知,有效提升目标检测精度,减小误检,漏检的概率。 展开更多
关键词 多传感器融合 激光雷达 单目相机 D-S证据理论 加权框融合
原文传递
基于标尺标定法的光电挠度仪及其影响因素研究
20
作者 王欣荣 龚华平 +5 位作者 于子淇 刘思瑶 柴丛山 徐贲 樊其明 赵春柳 《中国计量大学学报》 2025年第2期178-185,共8页
目的:为提高挠度测量的准确性,研究基于标尺标定法的光电挠度仪及其影响因素。方法:采用标尺标定法。通过安装已知尺寸的标尺,利用工业相机成像获取标尺对应的像素尺寸,计算标定系数;选定标靶,通过图像处理计算像素位移,获得实际挠度值... 目的:为提高挠度测量的准确性,研究基于标尺标定法的光电挠度仪及其影响因素。方法:采用标尺标定法。通过安装已知尺寸的标尺,利用工业相机成像获取标尺对应的像素尺寸,计算标定系数;选定标靶,通过图像处理计算像素位移,获得实际挠度值。实验分析了挠度变化速度、相机安装角度、环境光照度等因素对光电挠度仪测量结果的影响。结果:实验结果表明,在实验参数变化范围内(2.5~10 mm/s、400~2200 lx、仰角范围2°~14°、水平角范围2°~14°),挠度变化速度、环境光照度、相机安装角度等因素对挠度测量结果无显著影响,光电挠度仪的测量值与高精度位移传感器数据基本一致,偏差在0.1 mm以内。结论:基于标尺标定法的光电挠度仪准确度高,受外界因素影响小,具有很高的实际应用价值。 展开更多
关键词 挠度测量 位移传感器 工业相机 标定方法
在线阅读 下载PDF
上一页 1 2 22 下一页 到第
使用帮助 返回顶部