期刊文献+
共找到456篇文章
< 1 2 23 >
每页显示 20 50 100
Sensor planning method for visual tracking in 3D camera networks 被引量:1
1
作者 Anlong Ming Xin Chen 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2014年第6期1107-1116,共10页
Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks a... Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks are usually simplified as 2D points in previous literature. However in actual application scenes, not only cameras are always heterogeneous with different height and action radiuses, but also the observed objects are with 3D features(i.e., height). This paper presents a sensor planning formulation addressing the efficiency enhancement of visual tracking in 3D heterogeneous camera networks that track and detect people traversing a region. The problem of sensor planning consists of three issues:(i) how to model the 3D heterogeneous cameras;(ii) how to rank the visibility, which ensures that the object of interest is visible in a camera's field of view;(iii) how to reconfigure the 3D viewing orientations of the cameras. This paper studies the geometric properties of 3D heterogeneous camera networks and addresses an evaluation formulation to rank the visibility of observed objects. Then a sensor planning method is proposed to improve the efficiency of visual tracking. Finally, the numerical results show that the proposed method can improve the tracking performance of the system compared to the conventional strategies. 展开更多
关键词 camera model sensor planning camera network visual tracking
在线阅读 下载PDF
Color compensation for multi-view video coding based on diversity of cameras 被引量:1
2
作者 Jun-yan HUO Yi-lin CHANG +1 位作者 Hai-tao YANG Shuai WAN 《Journal of Zhejiang University-Science A(Applied Physics & Engineering)》 SCIE EI CAS CSCD 2008年第12期1631-1637,共7页
A novel color compensation method for multi-view video coding (MVC) is proposed, which efficiently exploits the inter-view dependencies between views with the existence of color mismatch caused by the diversity of cam... A novel color compensation method for multi-view video coding (MVC) is proposed, which efficiently exploits the inter-view dependencies between views with the existence of color mismatch caused by the diversity of cameras. A color compensation model is developed in RGB channels and then extended to YCbCr channels for practical use. A modified inter-view reference picture is constructed based on the color compensation model, which is more similar to the coding picture than the original inter-view reference picture. Moreover, the color compensation factors can be derived in both encoder and decoder, therefore no additional data need to be transmitted to the decoder. The experimental results show that the proposed method improves the coding efficiency of MVC and maintains good subjective quality. 展开更多
关键词 multi-view video coding (MVC) H.264/AVC Color compensation Diversity of cameras
在线阅读 下载PDF
Stereoscopic Camera-Sensor Model for the Development of Highly Automated Driving Functions within a Virtual Test Environment
3
作者 René Degen Martin de Fries +3 位作者 Alexander Nüßgen Marcus Irmer Mats Leijon Margot Ruschitzka 《Journal of Transportation Technologies》 2023年第1期87-114,共28页
The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments... The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments and virtual sensor models. In the context of this, the present paper documents the development of a sensor model for depth estimation of virtual three-dimensional scenarios. For this purpose, the geometric and algorithmic principles of stereoscopic camera systems are recreated in a virtual form. The model is implemented as a subroutine in the Epic Games Unreal Engine, which is one of the most common Game Engines. Its architecture consists of several independent procedures that enable a local depth estimation, but also a reconstruction of a whole three-dimensional scenery. In addition, a separate programme for calibrating the model is presented. In addition to the basic principles, the architecture and the implementation, this work also documents the evaluation of the model created. It is shown that the model meets specifically defined requirements for real-time capability and the accuracy of the evaluation. Thus, it is suitable for the virtual testing of common algorithms and highly automated driving functions. 展开更多
关键词 sensor Model Virtual Test Environment Stereoscopic camera Unreal Engine OPENCV ADAS/AD
在线阅读 下载PDF
Automatic Miscalibration Detection and Correction of LiDAR and Camera Using Motion Cues
4
作者 Pai Peng Dawei Pi +3 位作者 Guodong Yin Yan Wang Liwei Xu Jiwei Feng 《Chinese Journal of Mechanical Engineering》 SCIE EI CAS CSCD 2024年第2期318-329,共12页
This paper aims to develop an automatic miscalibration detection and correction framework to maintain accurate calibration of LiDAR and camera for autonomous vehicle after the sensor drift.First,a monitoring algorithm... This paper aims to develop an automatic miscalibration detection and correction framework to maintain accurate calibration of LiDAR and camera for autonomous vehicle after the sensor drift.First,a monitoring algorithm that can continuously detect the miscalibration in each frame is designed,leveraging the rotational motion each individual sensor observes.Then,as sensor drift occurs,the projection constraints between visual feature points and LiDAR 3-D points are used to compute the scaled camera motion,which is further utilized to align the drifted LiDAR scan with the camera image.Finally,the proposed method is sufficiently compared with two representative approaches in the online experiments with varying levels of random drift,then the method is further extended to the offline calibration experiment and is demonstrated by a comparison with two existing benchmark methods. 展开更多
关键词 Autonomous vehicle LiDAR and camera Miscalibration detection and correction sensor drift
在线阅读 下载PDF
激光雷达与相机外参标定方法研究综述
5
作者 黄跃成 曹成 《辽宁师专学报(自然科学版)》 2025年第3期26-34,共9页
激光雷达(LiDAR)与相机的外参标定是实现多模态感知融合的关键步骤,直接影响自动驾驶、机器人等系统在环境感知、三维重建和目标定位等任务中的精度与稳定性.研究系统梳理并分析现有LiDAR-相机外参标定方法,按传统几何标定方法、基于特... 激光雷达(LiDAR)与相机的外参标定是实现多模态感知融合的关键步骤,直接影响自动驾驶、机器人等系统在环境感知、三维重建和目标定位等任务中的精度与稳定性.研究系统梳理并分析现有LiDAR-相机外参标定方法,按传统几何标定方法、基于特征匹配的无标定物方法及深度学习方法进行分类阐述.通过对比各类方法的技术原理、实验流程、精度表现及其在不同应用场景下的优劣,揭示当前标定方法在自动化程度、环境依赖性及鲁棒性等方面面临的挑战.同时,对联合标定未来发展方向进行展望,涵盖自监督学习、动态场景下的在线标定及多传感器联合优化等内容,为后续研究提供理论参考. 展开更多
关键词 激光雷达 相机标定 外参估计 几何方法 深度学习 多传感器融合
在线阅读 下载PDF
多视图相机传感器与多模态特征融合的三维重建
6
作者 尉艳丽 张素智 《传感器与微系统》 北大核心 2025年第11期101-105,共5页
针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另... 针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另外,从多视图二维(2D)图像中提取颜色、深度、语义学等多模态特征,通过动态调整特征的重要性来准确捕捉关键区域。实验结果表明,本文模型在局部光场融合(LLFF)和丹麦技术大学(DTU)数据集上的3D重建表现优于现有主流模型,模型在3视图、6视图和9视图输入的峰值信噪比(PSNR)指标分别达到20.01、23.56和24.58。本文模型在复杂场景和多视图变化中表现出较强的鲁棒性,验证了模型的有效性和可靠性。 展开更多
关键词 多视图相机传感器 多模态特征融合 三维重建
在线阅读 下载PDF
基于多传感器融合的堆叠棒料识别和抓取 被引量:1
7
作者 卢欣龙 赵岩 +3 位作者 代凡 李棋 杨凌云 方辉 《机械工程师》 2025年第3期27-31,35,共6页
针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距... 针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距离数据,获取棒料中心位置的深度信息。最后引导机械臂到达指定位置进行棒料抓取。实验表明,在误差允许范围内,通过多传感器引导机械臂寻找并抓取棒料具有良好的准确性。 展开更多
关键词 相机标定 多传感器融合 轮廓检测 物体抓取
在线阅读 下载PDF
基于多特征匹配的点云与图像的融合方法
8
作者 许浩 王肖霞 杨风暴 《激光杂志》 北大核心 2025年第3期105-112,共8页
无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的... 无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的融合方法,使得融合得到的数据同时具备点云的空间立体特性与可见光图像的彩色纹理信息。该方法首先通过平面标定板对激光雷达和相机进行标定获取初始变换关系,然后利用二者传感器共同视野中的自然边缘特征进行对齐,最后将二者数据融合并得到可视化结果。所提方法相比于基于人工匹配的标定融合方法以及基于平面标定板的自动标定融合的方法,精度分别提升了33.8%和23.1%,可视化结果很好地还原了真实场景。 展开更多
关键词 激光雷达 可见光相机 外参标定 传感器融合
原文传递
视觉和激光SLAM发展综述与展望 被引量:2
9
作者 程亮 罗洲 +1 位作者 何赟泽 陈永灿 《中国测试》 北大核心 2025年第6期1-16,共16页
同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地... 同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地图构建这四个模块的作用以及所采用的算法;在这之后梳理归纳视觉/激光SLAM发展历程中的经典算法并分析其优缺点以及在此之后优秀的改进方案;此外,列举当前SLAM技术在生活中的典型应用场景,展示在自动驾驶、无人化装备等领域的重要作用;最后讨论SLAM系统当前的发展趋势和研究进展,以及在未来应用中需要考虑的挑战和问题,包括多类型传感器融合、与深度学习技术的融合以及跨学科合作的关键作用。通过对SLAM技术的全面分析和讨论,为进一步推动SLAM技术的发展和应用提供深刻的理论指导和实践参考。 展开更多
关键词 同时定位与地图构建 相机 激光雷达 多传感器融合
在线阅读 下载PDF
基于多传感器融合的无人车目标检测系统研究
10
作者 陈晓锋 李郁峰 +3 位作者 王传松 郭荣 樊宏丽 朱堉伦 《激光杂志》 北大核心 2025年第5期94-100,共7页
针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov... 针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov5算法对预处理后的点云数据和图像数据进行迁移训练和目标检测得到检测框,最后使用交并比匹配、D-S证据理论和加权框融合方法对目标结果进行融合。通过实车试验,得出提出的融合方法在激光雷达和相机的决策级融合场景中能够有效结合两者的优势,实现对环境的更全面感知,有效提升目标检测精度,减小误检,漏检的概率。 展开更多
关键词 多传感器融合 激光雷达 单目相机 D-S证据理论 加权框融合
原文传递
图像角点与点云曲率渲染边界特征下的雷视一体标定 被引量:1
11
作者 张代聪 李倩 +2 位作者 余继龙 陈文博 罗宝琪 《西安工程大学学报》 2025年第2期109-117,共9页
激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者... 激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者其他自然场景特征点选取的方法,对激光雷达与相机的外参进行标定。该方法结合了点云的曲率渲染边界特征辅助特征点的选取以及二维图像角点提取算法,能够方便快捷地实现具有自然特征的场景下的雷视一体外参标定。实验结果表明:标定的最大平移向量均值误差为34 mm,最大旋转向量均值误差为0.493°,能够满足常用的厘米级激光雷达和相机雷视一体标定的需求。 展开更多
关键词 多传感器 雷视标定 图像角点 曲率渲染 激光雷达
在线阅读 下载PDF
无人机动态视觉时空域事件信息快速滤波方法
12
作者 何佳璐 甄子洋 +1 位作者 刘森林 王爽宇 《电光与控制》 北大核心 2025年第10期14-19,54,共7页
针对无人机高速飞行时动态视觉传感器输出的事件流中大量噪声干扰以及边缘事件丢失问题,提出一种局部事件流快速滤波算法。根据噪声与有效事件时空相关性不同这一特性,从事件流中提取时间窗中事件,构建事件元张量,张量中含有像素空间的... 针对无人机高速飞行时动态视觉传感器输出的事件流中大量噪声干扰以及边缘事件丢失问题,提出一种局部事件流快速滤波算法。根据噪声与有效事件时空相关性不同这一特性,从事件流中提取时间窗中事件,构建事件元张量,张量中含有像素空间的事件信息。事件元张量采用降维映射得到一维事件条,加快信息访问及计算效率,通过计算相邻时间窗下对应像素位置8邻域内事件信息的Hamming距离判断事件相关性,从而实现事件滤波。实验结果表明,所提算法能够剔除低空飞行轨迹下非近邻关系的事件,且不影响其他位置滤波效果,减少了机体运动起始时或缓慢运动时物体边缘事件损失,保证了边缘信息质量,提高了事件图像中物体轮廓清晰度。 展开更多
关键词 事件相机 滤波 无人机 事件元张量 动态视觉传感器
在线阅读 下载PDF
激光雷达和相机传感器融合的两阶段3D目标检测
13
作者 洪宝惜 范智淳 柳萍萍 《传感器与微系统》 北大核心 2025年第11期110-114,共5页
针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达... 针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达的几何信息与相机的纹理信息,采用感兴趣区域(RoI)池化技术统一处理多模态数据,并设计模态内自注意力与交叉注意力机制实现特征增强与信息融合。实验证明,在KITTI和Waymo基准测试中,FusionDetect不仅使主流检测器性能获得突破性提升,更在Waymo数据集上以6.45%的平均精度均值(mAP)提升超越基线模型,显著优于现有两阶段方法。研究成果验证了多模态传感器融合在提升3D目标检测精度方面的关键作用。 展开更多
关键词 3D目标检测 传感器融合 激光雷达 相机 多模态数据 注意力机制
在线阅读 下载PDF
无光动态环境下的AGV定位导航系统
14
作者 崔云轩 刘桂华 +1 位作者 明吉花 龚云鑫 《计算机应用与软件》 北大核心 2025年第10期109-117,共9页
针对无光动态环境下的AGV(Automated Guidance Vehicle)无法有效规避三维障碍物的问题,提出多传感器信息融合的AGV定位导航技术。通过点云距离筛选机制融合三维点云与二维激光数据,并基于图优化算法实现多传感器融合的定位及二维栅格地... 针对无光动态环境下的AGV(Automated Guidance Vehicle)无法有效规避三维障碍物的问题,提出多传感器信息融合的AGV定位导航技术。通过点云距离筛选机制融合三维点云与二维激光数据,并基于图优化算法实现多传感器融合的定位及二维栅格地图构建;在A*算法中引入自适应障碍物权重,并优化路径拐点;在DWA(Dynamic Window Approach)中添加深度相机观测的距离函数,实现AGV的动态路径规划。实验结果表明,该系统的定位精度为3.34 cm,且能够有效规避二维激光雷达无法观测的障碍物,使得路径规划时间缩短了37.4%,提高了AGV的运行效率。 展开更多
关键词 无光环境 深度相机 二维激光雷达 多传感器融合 三维避障 路径规划
在线阅读 下载PDF
智能汽车多源融合环境感知系统综述 被引量:2
15
作者 李周达 查云飞 《汽车文摘》 2025年第4期1-11,共11页
为了系统总结智能汽车多源融合环境感知技术的研究现状,对比分析了摄像头、激光雷达、毫米波雷达等传感器的原理与特性,综述了基于单传感器(如相机目标检测、激光雷达点云处理)及多传感器融合(数据层、特征层、决策层)的环境感知技术,... 为了系统总结智能汽车多源融合环境感知技术的研究现状,对比分析了摄像头、激光雷达、毫米波雷达等传感器的原理与特性,综述了基于单传感器(如相机目标检测、激光雷达点云处理)及多传感器融合(数据层、特征层、决策层)的环境感知技术,分析了其技术瓶颈与挑战,并结合典型算法案例探讨其应用效果。研究表明:单一传感器存在固有局限性,如相机依赖光照条件、激光雷达成本高昂且无法获取语义信息;多传感器融合技术通过互补优势显著提升环境感知的鲁棒性,但数据异构性、实时性不足等问题仍需突破。为了应对复杂场景下的感知需求,智能化多模态融合算法、高性价比传感器集成及V2X协同感知技术是未来重点发展方向。 展开更多
关键词 智能汽车 环境感知 多传感器融合 相机 激光雷达
在线阅读 下载PDF
基于多传感器BEV特征融合的轨道分割算法
16
作者 石海丰 苗壮壮 +3 位作者 闫正祥 韩改堂 杨连报 汪小亮 《中国铁路》 北大核心 2025年第4期87-94,共8页
轨道分割技术是列车主动检测障碍物的核心支撑。目前,主流轨道分割法通常依赖于相机传感器,无法捕获轨道位置深度信息,影响分割精度。为此提出1种基于多传感器BEV特征融合的轨道分割算法,通过结合摄像头和激光雷达的输入,增强对轨道数... 轨道分割技术是列车主动检测障碍物的核心支撑。目前,主流轨道分割法通常依赖于相机传感器,无法捕获轨道位置深度信息,影响分割精度。为此提出1种基于多传感器BEV特征融合的轨道分割算法,通过结合摄像头和激光雷达的输入,增强对轨道数据的感知能力。首先,从摄像头捕获的图像数据和雷达生成的点云数据中提取特征;然后,设计1个基于注意力机制的融合模块整合这2种数据特征;最后,通过线性层对融合后的特征进行处理,实现轨道精确分割。为验证算法有效性,在OSDaR23数据集上进行训练与测试。结果表明,该方法具备出色的分割性能。 展开更多
关键词 轨道分割 雷达 摄像头 鸟瞰视图 多传感器融合 注意力机制
在线阅读 下载PDF
面向内河无人艇智能航行的4D毫米波雷达-摄像头融合算法
17
作者 姚善良 管润玮 +3 位作者 丁卫平 岳勇 朱晓辉 陈苏蓉 《南通大学学报(自然科学版)》 2025年第3期44-51,共8页
内河无人艇在环境监测、水域救援、交通运输等领域展现出重要应用价值,但其感知系统面临水面反射、恶劣光照及多变天气等严峻挑战。目前水面感知研究主要依赖于摄像头或低分辨率毫米波雷达数据,难以满足复杂场景下的多模态感知需求。针... 内河无人艇在环境监测、水域救援、交通运输等领域展现出重要应用价值,但其感知系统面临水面反射、恶劣光照及多变天气等严峻挑战。目前水面感知研究主要依赖于摄像头或低分辨率毫米波雷达数据,难以满足复杂场景下的多模态感知需求。针对这一挑战,提出一种基于4D毫米波雷达-摄像头融合的解决方案:首先,构建4D毫米波雷达的多维特征表征体系,包括动态提取距离、方位、速度和反射强度等关键特征;然后,设计动态场景自适应的跨模态融合机制,利用注意力机制加权融合不同模态特征,实现实时自适应算法以应对环境变化;最后,通过深度学习模型实现异构传感器在特征层级的深度耦合。实验验证结果表明:该融合方案显著提升了感知系统的环境适应性,在低质量光照条件下和恶劣天气场景中,目标检测精度较传统视觉系统分别提升3.4和3.9个百分点。本研究不仅为水面复杂场景的智能感知提供了有效的技术解决方案,还将进一步推动内河无人艇向智能化、自主化方向发展。 展开更多
关键词 内河无人艇 4D毫米波雷达-摄像头 自动驾驶 多传感器融合 复杂场景感知 特征级融合
在线阅读 下载PDF
基于CMOS图像传感器的智能摄像头设计
18
作者 李思彤 马清晨 +2 位作者 石飞燕 周苏毅 夏百花 《无线互联科技》 2025年第1期19-23,共5页
当前,老龄化的人口问题、老年人的监护问题等日益成为社会的课题。鉴于中国独特的养老习惯——以依赖家庭和养老机构的养老模式为主,老年人往往难以应对突发的棘手问题。现在的视频监控系统大多由人实时监控。不间断的监控方式涉及老人... 当前,老龄化的人口问题、老年人的监护问题等日益成为社会的课题。鉴于中国独特的养老习惯——以依赖家庭和养老机构的养老模式为主,老年人往往难以应对突发的棘手问题。现在的视频监控系统大多由人实时监控。不间断的监控方式涉及老人不易接受的个人隐私问题。为提高老年人的生活质量,文章设计一种基于视频的老年人智能安全监测系统。该系统在运作期间通过构建关键技术异常模式库,实现对这些异常模式的精准识别。这一举措旨在加速老年人安全监测技术的研发进程,拓宽其在实际应用中的推广范围。 展开更多
关键词 CMOS 图像传感器 智能摄像头
在线阅读 下载PDF
常见环境感知传感器在智能驾驶领域的应用与发展趋势 被引量:2
19
作者 李翊轩 查云飞 《汽车文摘》 2025年第4期12-22,共11页
为满足智能驾驶对精准环境感知的需求,聚焦智能驾驶环境感知传感器的应用与发展,解析其在系统架构中的基础性地位。讨论了视觉传感器、激光雷达、毫米波雷达和超声波雷达等各类传感器的工作机制、应用场景以及优劣势,分析了多传感器融... 为满足智能驾驶对精准环境感知的需求,聚焦智能驾驶环境感知传感器的应用与发展,解析其在系统架构中的基础性地位。讨论了视觉传感器、激光雷达、毫米波雷达和超声波雷达等各类传感器的工作机制、应用场景以及优劣势,分析了多传感器融合对提高感知精度与智能驾驶可靠性的影响。未来,智能车辆的环境感知传感器技术将围绕新型传感材料、智能自适应、节能设计、故障诊断、实时校准和环境影响抑制6大方向发展;传感器将向小型化、集成化及自适应低功耗设计方面持续演进;将在车载摄像头高精度化、激光雷达固态化、超声波雷达融合创新等方面取得更大突破,以提升传感精确度、实时性和可靠性,满足日益复杂的驾驶环境需求。 展开更多
关键词 智能驾驶 环境感知传感器 摄像头 激光雷达 毫米波雷达 超声波雷达
在线阅读 下载PDF
基于标尺标定法的光电挠度仪及其影响因素研究
20
作者 王欣荣 龚华平 +5 位作者 于子淇 刘思瑶 柴丛山 徐贲 樊其明 赵春柳 《中国计量大学学报》 2025年第2期178-185,共8页
目的:为提高挠度测量的准确性,研究基于标尺标定法的光电挠度仪及其影响因素。方法:采用标尺标定法。通过安装已知尺寸的标尺,利用工业相机成像获取标尺对应的像素尺寸,计算标定系数;选定标靶,通过图像处理计算像素位移,获得实际挠度值... 目的:为提高挠度测量的准确性,研究基于标尺标定法的光电挠度仪及其影响因素。方法:采用标尺标定法。通过安装已知尺寸的标尺,利用工业相机成像获取标尺对应的像素尺寸,计算标定系数;选定标靶,通过图像处理计算像素位移,获得实际挠度值。实验分析了挠度变化速度、相机安装角度、环境光照度等因素对光电挠度仪测量结果的影响。结果:实验结果表明,在实验参数变化范围内(2.5~10 mm/s、400~2200 lx、仰角范围2°~14°、水平角范围2°~14°),挠度变化速度、环境光照度、相机安装角度等因素对挠度测量结果无显著影响,光电挠度仪的测量值与高精度位移传感器数据基本一致,偏差在0.1 mm以内。结论:基于标尺标定法的光电挠度仪准确度高,受外界因素影响小,具有很高的实际应用价值。 展开更多
关键词 挠度测量 位移传感器 工业相机 标定方法
在线阅读 下载PDF
上一页 1 2 23 下一页 到第
使用帮助 返回顶部