期刊文献+
共找到438篇文章
< 1 2 22 >
每页显示 20 50 100
Depth Estimation Based on Monocular Camera Sensors in Autonomous Vehicles: A Self‑supervised Learning Approach 被引量:5
1
作者 Guofa Li Xingyu Chi Xingda Qu 《Automotive Innovation》 EI CSCD 2023年第2期268-280,共13页
Estimating depth from images captured by camera sensors is crucial for the advancement of autonomous driving technologies and has gained significant attention in recent years.However,most previous methods rely on stac... Estimating depth from images captured by camera sensors is crucial for the advancement of autonomous driving technologies and has gained significant attention in recent years.However,most previous methods rely on stacked pooling or stride convolution to extract high-level features,which can limit network performance and lead to information redundancy.This paper proposes an improved bidirectional feature pyramid module(BiFPN)and a channel attention module(Seblock:squeeze and excitation)to address these issues in existing methods based on monocular camera sensor.The Seblock redistributes channel feature weights to enhance useful information,while the improved BiFPN facilitates efficient fusion of multi-scale features.The proposed method is in an end-to-end solution without any additional post-processing,resulting in efficient depth estimation.Experiment results show that the proposed method is competitive with state-of-the-art algorithms and preserves fine-grained texture of scene depth. 展开更多
关键词 Autonomous vehicle camera sensor Deep learning Depth estimation Self-supervised
原文传递
Sensor planning method for visual tracking in 3D camera networks 被引量:1
2
作者 Anlong Ming Xin Chen 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2014年第6期1107-1116,共10页
Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks a... Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks are usually simplified as 2D points in previous literature. However in actual application scenes, not only cameras are always heterogeneous with different height and action radiuses, but also the observed objects are with 3D features(i.e., height). This paper presents a sensor planning formulation addressing the efficiency enhancement of visual tracking in 3D heterogeneous camera networks that track and detect people traversing a region. The problem of sensor planning consists of three issues:(i) how to model the 3D heterogeneous cameras;(ii) how to rank the visibility, which ensures that the object of interest is visible in a camera's field of view;(iii) how to reconfigure the 3D viewing orientations of the cameras. This paper studies the geometric properties of 3D heterogeneous camera networks and addresses an evaluation formulation to rank the visibility of observed objects. Then a sensor planning method is proposed to improve the efficiency of visual tracking. Finally, the numerical results show that the proposed method can improve the tracking performance of the system compared to the conventional strategies. 展开更多
关键词 camera model sensor planning camera network visual tracking
在线阅读 下载PDF
Stereoscopic Camera-Sensor Model for the Development of Highly Automated Driving Functions within a Virtual Test Environment
3
作者 René Degen Martin de Fries +3 位作者 Alexander Nüßgen Marcus Irmer Mats Leijon Margot Ruschitzka 《Journal of Transportation Technologies》 2023年第1期87-114,共28页
The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments... The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments and virtual sensor models. In the context of this, the present paper documents the development of a sensor model for depth estimation of virtual three-dimensional scenarios. For this purpose, the geometric and algorithmic principles of stereoscopic camera systems are recreated in a virtual form. The model is implemented as a subroutine in the Epic Games Unreal Engine, which is one of the most common Game Engines. Its architecture consists of several independent procedures that enable a local depth estimation, but also a reconstruction of a whole three-dimensional scenery. In addition, a separate programme for calibrating the model is presented. In addition to the basic principles, the architecture and the implementation, this work also documents the evaluation of the model created. It is shown that the model meets specifically defined requirements for real-time capability and the accuracy of the evaluation. Thus, it is suitable for the virtual testing of common algorithms and highly automated driving functions. 展开更多
关键词 sensor Model Virtual Test Environment Stereoscopic camera Unreal Engine OPENCV ADAS/AD
在线阅读 下载PDF
基于相机传感器的轻量级全景分割网络
4
作者 郭蕊 周高利 洪祥龙 《传感器与微系统》 北大核心 2026年第1期117-120,共4页
针对目前主流的高性能全景分割方法计算开销大,难以满足实时应用需求。提出了一种创新的基于相机传感器的单阶段轻量级全景分割网络,该网络采用共享特征提取主干,并配备3个专用分支分别处理目标检测、语义分割和实例级注意力掩码生成。... 针对目前主流的高性能全景分割方法计算开销大,难以满足实时应用需求。提出了一种创新的基于相机传感器的单阶段轻量级全景分割网络,该网络采用共享特征提取主干,并配备3个专用分支分别处理目标检测、语义分割和实例级注意力掩码生成。设计的新型全景分割头通过空间嵌入学习生成实例感知的软注意力掩码,实现了物体类别语义掩码与实例软掩码在像素层面的自然融合,无需额外后处理即可直接输出全景分割结果。在COCO和Cityscapes数据集上的实验表明,该方法在精度和速度方面均达到先进水平,尤其在Cityscapes数据集1024×2048分辨率图像上取得了59.7的全景质量分数,同时保持超过10 fps的实时推理速度。 展开更多
关键词 全景分割 相机传感器 单阶段 轻量级
在线阅读 下载PDF
一种基于Spike Camera的彩色脉冲相机仿真
5
作者 马雪山 刘斌 +2 位作者 杨静 田娟 马雷 《现代计算机》 2022年第12期17-23,共7页
受到生物视觉机制的启发,一种新型的仿视网膜中央凹的视觉传感器Spike Camera被研制出来。相比传统基于帧的相机和其他事件相机,Spike Camera更适合处理超高速场景的视觉任务。目前物理设备推广受到限制,此类视觉类传感器的发展和应用... 受到生物视觉机制的启发,一种新型的仿视网膜中央凹的视觉传感器Spike Camera被研制出来。相比传统基于帧的相机和其他事件相机,Spike Camera更适合处理超高速场景的视觉任务。目前物理设备推广受到限制,此类视觉类传感器的发展和应用也受到影响。在本文中,我们实现了一种基于Spike Camera的仿真建模方法,将连续的视频帧转化成脉冲数据,再根据脉冲数据重构成图像帧。通过仿真程序,探索了在Spike Camera传感器上的彩色信息脉冲编码的方式。实验结果表明,相比其他彩色编码方式,使用单通道的RGB彩色脉冲编码能在损失很少的图像信息的情况下,极大地压缩脉冲数据,减少传输带宽。本文的研究结果对设计彩色脉冲相机具有重要参考意义。 展开更多
关键词 脉冲相机 彩色脉冲 传感器仿真
在线阅读 下载PDF
洗煤厂皮带安全运行智能监测系统设计
6
作者 张强 《煤》 2026年第1期100-104,共5页
针对洗煤厂皮带系统核心区域监测不足的现状,原有模拟监控摄像头存在图像分辨率低、维护成本高昂且不便的问题,提出在皮带的机头与机尾位置安装高性能矿用光纤摄像机,提升现场监控的精确度和效率;在皮带的主驱动滚筒及减速器上,集成安... 针对洗煤厂皮带系统核心区域监测不足的现状,原有模拟监控摄像头存在图像分辨率低、维护成本高昂且不便的问题,提出在皮带的机头与机尾位置安装高性能矿用光纤摄像机,提升现场监控的精确度和效率;在皮带的主驱动滚筒及减速器上,集成安装温度与振动传感器,实时监测设备运行过程中的温度波动与振动情况,构建一套集数据采集、分析、预警于一体的皮带运行状态在线监测系统。该系统不仅能够实时展示皮带的运行状况,还能通过智能算法对收集到的数据进行深度分析,自动识别潜在的安全隐患或性能衰退趋势,实现故障的早期预警与快速响应,为洗煤厂的稳定高效运行提供坚实的技术支撑。 展开更多
关键词 监控摄像头 图像分辨率 光纤摄像机 振动传感器 数据采集 运行状况
在线阅读 下载PDF
基于Cameralink接口的双目CMOS APS成像系统的研究 被引量:1
7
作者 张明宇 刘金国 +2 位作者 李余 宋丹 孔德柱 《光电子技术》 CAS 2008年第4期270-273,共4页
为满足大视场、多个图像传感器同时使用、多光电图像传感器成像系统的响应一致性等技术需求,设计了一种大视场的成像系统。将先进先出缓存(FIFO)应用到数据传输技术当中,保证了系统多种图像数据同步实时输出;在基于低压差分信号(LVDS)... 为满足大视场、多个图像传感器同时使用、多光电图像传感器成像系统的响应一致性等技术需求,设计了一种大视场的成像系统。将先进先出缓存(FIFO)应用到数据传输技术当中,保证了系统多种图像数据同步实时输出;在基于低压差分信号(LVDS)技术上同时采用Camera link接口协议,设计了一种低成本、高速、稳定、简易的双目半导体金属氧化物有源传感器(CMOSAPS)成像系统,并深入探讨了系统的基本组成和工作原理;利用可编程门阵列完成自上而下的模块设计;并对系统部分工作时序进行了仿真,并进行板上调试;结果表明,本设计方案满足系统的大视场需求,为后续的图像采集工作打下了坚实的基础。 展开更多
关键词 cameralink接口 双目 CMOS APS图像传感器 现场可编程门阵列
在线阅读 下载PDF
Energy Efficient Content Based Image Retrieval in Sensor Networks
8
作者 Qurban A. Memon Hend Alqamzi 《International Journal of Communications, Network and System Sciences》 2012年第7期405-415,共11页
The presence of increased memory and computational power in imaging sensor networks attracts researchers to exploit image processing algorithms on distributed memory and computational power. In this paper, a typical p... The presence of increased memory and computational power in imaging sensor networks attracts researchers to exploit image processing algorithms on distributed memory and computational power. In this paper, a typical perimeter is investigated with a number of sensors placed to form an image sensor network for the purpose of content based distributed image search. Image search algorithm is used to enable distributed content based image search within each sensor node. The energy model is presented to calculate energy efficiency for various cases of image search and transmission. The simulations are carried out based on consideration of continuous monitoring or event driven activity on the perimeter. The simulation setups consider distributed image processing on sensor nodes and results show that energy saving is significant if search algorithms are embedded in image sensor nodes and image processing is distributed across sensor nodes. The tradeoff between sensor life time, distributed image search and network deployed cost is also investigated. 展开更多
关键词 IMAGE sensor NETWORKS IMAGE Identification in sensor Network camera sensor NETWORKS Distributed IMAGE SEARCH
在线阅读 下载PDF
Modeling and Rectification of Rolling Shutter Effect in CMOS Aerial Cameras
9
作者 Lei Wan Ye Zhang +1 位作者 Ping Jia Jiajia Xu 《Journal of Harbin Institute of Technology(New Series)》 EI CAS 2017年第4期71-77,共7页
Due to the electronic rolling shutter, high-speed Complementary Metal-Oxide Semiconductor( CMOS) aerial cameras are generally subject to geometric distortions,which cannot be perfectly corrected by conventional vision... Due to the electronic rolling shutter, high-speed Complementary Metal-Oxide Semiconductor( CMOS) aerial cameras are generally subject to geometric distortions,which cannot be perfectly corrected by conventional vision-based algorithms. In this paper we propose a novel approach to address the problem of rolling shutter distortion in aerial imaging. A mathematical model is established by the coordinate transformation method. It can directly calculate the pixel distortion when an aerial camera is imaging at arbitrary gesture angles.Then all pixel distortions form a distortion map over the whole CMOS array and the map is exploited in the image rectification process incorporating reverse projection. The error analysis indicates that within the margin of measuring errors,the final calculation error of our model is less than 1/2 pixel. The experimental results show that our approach yields good rectification performance in a series of images with different distortions. We demonstrate that our method outperforms other vision-based algorithms in terms of the computational complexity,which makes it more suitable for aerial real-time imaging. 展开更多
关键词 aerial camera CMOS sensor ROLLING SHUTTER effect COORDINATE transformation image RECTIFICATION
在线阅读 下载PDF
Research on a New-style Visual Sensor for Measurement
10
作者 YU Rong TAN Yuegang School of Mechanical and Electronic Engineering,Wuhan University of Technology,Wuhan 430070,China, 《武汉理工大学学报》 CAS CSCD 北大核心 2006年第S3期1003-1006,共4页
First,the constitution of traditional visual sensor is presented.The linear camera model is introduced and the transform matrix between the image coordinate system and the world coordinate system is established.The ba... First,the constitution of traditional visual sensor is presented.The linear camera model is introduced and the transform matrix between the image coordinate system and the world coordinate system is established.The basic principle of camera calibration is expatiated based on the linear camera model. On the basis of a detailed analysis of camera model,a new-style visual sensor for measurement is advanced.It can realize the real time control of the zoom of camera lens by step motor according to the size of objects.Moreover,re-calibration could be avoided and the transform matrix can be acquired by calculating,which can greatly simplify camera calibration process and save the time. Clearer images are gained,so the measurement system precision could be greatly improved.The basic structure of the visual sensor zoom is introduced,including the constitute mode and the movement rule of the fixed former part,zoom part,compensatory part and the fixed latter port.The realization method of zoom controlled by step motor is introduced. Finally,the constitution of the new-style visual sensor is introduced,including hardware and software.The hardware system is composed by manual zoom,CCD camera,image card,gearing,step motor,step motor driver and computer.The realization of software is introduced,including the composed module of software and the workflow of measurement system in the form of structured block diagram. 展开更多
关键词 camera CALIBRATION ZOOM VISUAL sensor
在线阅读 下载PDF
多视图相机传感器与多模态特征融合的三维重建 被引量:1
11
作者 尉艳丽 张素智 《传感器与微系统》 北大核心 2025年第11期101-105,共5页
针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另... 针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另外,从多视图二维(2D)图像中提取颜色、深度、语义学等多模态特征,通过动态调整特征的重要性来准确捕捉关键区域。实验结果表明,本文模型在局部光场融合(LLFF)和丹麦技术大学(DTU)数据集上的3D重建表现优于现有主流模型,模型在3视图、6视图和9视图输入的峰值信噪比(PSNR)指标分别达到20.01、23.56和24.58。本文模型在复杂场景和多视图变化中表现出较强的鲁棒性,验证了模型的有效性和可靠性。 展开更多
关键词 多视图相机传感器 多模态特征融合 三维重建
在线阅读 下载PDF
视觉和激光SLAM发展综述与展望 被引量:3
12
作者 程亮 罗洲 +1 位作者 何赟泽 陈永灿 《中国测试》 北大核心 2025年第6期1-16,共16页
同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地... 同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地图构建这四个模块的作用以及所采用的算法;在这之后梳理归纳视觉/激光SLAM发展历程中的经典算法并分析其优缺点以及在此之后优秀的改进方案;此外,列举当前SLAM技术在生活中的典型应用场景,展示在自动驾驶、无人化装备等领域的重要作用;最后讨论SLAM系统当前的发展趋势和研究进展,以及在未来应用中需要考虑的挑战和问题,包括多类型传感器融合、与深度学习技术的融合以及跨学科合作的关键作用。通过对SLAM技术的全面分析和讨论,为进一步推动SLAM技术的发展和应用提供深刻的理论指导和实践参考。 展开更多
关键词 同时定位与地图构建 相机 激光雷达 多传感器融合
在线阅读 下载PDF
激光雷达和相机传感器融合的两阶段3D目标检测 被引量:1
13
作者 洪宝惜 范智淳 柳萍萍 《传感器与微系统》 北大核心 2025年第11期110-114,共5页
针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达... 针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达的几何信息与相机的纹理信息,采用感兴趣区域(RoI)池化技术统一处理多模态数据,并设计模态内自注意力与交叉注意力机制实现特征增强与信息融合。实验证明,在KITTI和Waymo基准测试中,FusionDetect不仅使主流检测器性能获得突破性提升,更在Waymo数据集上以6.45%的平均精度均值(mAP)提升超越基线模型,显著优于现有两阶段方法。研究成果验证了多模态传感器融合在提升3D目标检测精度方面的关键作用。 展开更多
关键词 3D目标检测 传感器融合 激光雷达 相机 多模态数据 注意力机制
在线阅读 下载PDF
基于多传感器融合的堆叠棒料识别和抓取 被引量:1
14
作者 卢欣龙 赵岩 +3 位作者 代凡 李棋 杨凌云 方辉 《机械工程师》 2025年第3期27-31,35,共6页
针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距... 针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距离数据,获取棒料中心位置的深度信息。最后引导机械臂到达指定位置进行棒料抓取。实验表明,在误差允许范围内,通过多传感器引导机械臂寻找并抓取棒料具有良好的准确性。 展开更多
关键词 相机标定 多传感器融合 轮廓检测 物体抓取
在线阅读 下载PDF
基于多传感器融合的无人车目标检测系统研究 被引量:1
15
作者 陈晓锋 李郁峰 +3 位作者 王传松 郭荣 樊宏丽 朱堉伦 《激光杂志》 北大核心 2025年第5期94-100,共7页
针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov... 针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov5算法对预处理后的点云数据和图像数据进行迁移训练和目标检测得到检测框,最后使用交并比匹配、D-S证据理论和加权框融合方法对目标结果进行融合。通过实车试验,得出提出的融合方法在激光雷达和相机的决策级融合场景中能够有效结合两者的优势,实现对环境的更全面感知,有效提升目标检测精度,减小误检,漏检的概率。 展开更多
关键词 多传感器融合 激光雷达 单目相机 D-S证据理论 加权框融合
原文传递
基于多特征匹配的点云与图像的融合方法
16
作者 许浩 王肖霞 杨风暴 《激光杂志》 北大核心 2025年第3期105-112,共8页
无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的... 无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的融合方法,使得融合得到的数据同时具备点云的空间立体特性与可见光图像的彩色纹理信息。该方法首先通过平面标定板对激光雷达和相机进行标定获取初始变换关系,然后利用二者传感器共同视野中的自然边缘特征进行对齐,最后将二者数据融合并得到可视化结果。所提方法相比于基于人工匹配的标定融合方法以及基于平面标定板的自动标定融合的方法,精度分别提升了33.8%和23.1%,可视化结果很好地还原了真实场景。 展开更多
关键词 激光雷达 可见光相机 外参标定 传感器融合
原文传递
基于RGB图像与改进YOLOv8的花卉作物表型方法研究
17
作者 胡瑶 袁畅 +2 位作者 接浩 刘庆华 刘泓锐 《电子设计工程》 2025年第22期10-14,19,共6页
为提高花卉收割和修剪等劳动力密集型工作的效率,采用了一种基于RGB图像和改进YO⁃LOv8的花卉作物表型方法。通过RGB-D获取树干和树枝等数据,并构建基于YOLOv8x-seg的树干和树枝分割算法,采用主成分分析方法(Principal Component Analysi... 为提高花卉收割和修剪等劳动力密集型工作的效率,采用了一种基于RGB图像和改进YO⁃LOv8的花卉作物表型方法。通过RGB-D获取树干和树枝等数据,并构建基于YOLOv8x-seg的树干和树枝分割算法,采用主成分分析方法(Principal Component Analysis,PCA)估算树枝截面的大小和方向,通过估计的树枝直径推算树枝截面面积(Limb Cross Section Area,LCSA),该面积可作为作物负荷估算的输入,LCSA越大,表明树枝的潜在开花能力越强。由实验结果可知,改进后模型的F1-score较原YOLOv8n-seg模型提高了4.0%。同时,精确度(Precision)和召回率(Recall)相较于原模型分别提高了3.0%和4.0%,优于其他对比目标检测算法。 展开更多
关键词 深度学习 机器视觉 目标检测 YOLOv8 负荷估算 相机传感器
在线阅读 下载PDF
图像角点与点云曲率渲染边界特征下的雷视一体标定 被引量:1
18
作者 张代聪 李倩 +2 位作者 余继龙 陈文博 罗宝琪 《西安工程大学学报》 2025年第2期109-117,共9页
激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者... 激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者其他自然场景特征点选取的方法,对激光雷达与相机的外参进行标定。该方法结合了点云的曲率渲染边界特征辅助特征点的选取以及二维图像角点提取算法,能够方便快捷地实现具有自然特征的场景下的雷视一体外参标定。实验结果表明:标定的最大平移向量均值误差为34 mm,最大旋转向量均值误差为0.493°,能够满足常用的厘米级激光雷达和相机雷视一体标定的需求。 展开更多
关键词 多传感器 雷视标定 图像角点 曲率渲染 激光雷达
在线阅读 下载PDF
激光雷达与相机外参标定方法研究综述
19
作者 黄跃成 曹成 《辽宁师专学报(自然科学版)》 2025年第3期26-34,共9页
激光雷达(LiDAR)与相机的外参标定是实现多模态感知融合的关键步骤,直接影响自动驾驶、机器人等系统在环境感知、三维重建和目标定位等任务中的精度与稳定性.研究系统梳理并分析现有LiDAR-相机外参标定方法,按传统几何标定方法、基于特... 激光雷达(LiDAR)与相机的外参标定是实现多模态感知融合的关键步骤,直接影响自动驾驶、机器人等系统在环境感知、三维重建和目标定位等任务中的精度与稳定性.研究系统梳理并分析现有LiDAR-相机外参标定方法,按传统几何标定方法、基于特征匹配的无标定物方法及深度学习方法进行分类阐述.通过对比各类方法的技术原理、实验流程、精度表现及其在不同应用场景下的优劣,揭示当前标定方法在自动化程度、环境依赖性及鲁棒性等方面面临的挑战.同时,对联合标定未来发展方向进行展望,涵盖自监督学习、动态场景下的在线标定及多传感器联合优化等内容,为后续研究提供理论参考. 展开更多
关键词 激光雷达 相机标定 外参估计 几何方法 深度学习 多传感器融合
在线阅读 下载PDF
基于自适应加权融合的盾构管片精确定位方法
20
作者 王凯峰 王悦晨 +4 位作者 吴委员 王涛涌 崔望朔 朱晨 邓斌 《工程设计学报》 北大核心 2025年第5期601-612,共12页
为提升盾构管片自动拼装过程中位姿检测系统的精度和环境适应能力,提出了一种融合线激光传感器与RGB-D相机的高鲁棒性多源定位方法。在感知层面,利用5个线激光传感器提取管片的边缘特征,并结合几何模型推算其弧边与直边交点的坐标,以实... 为提升盾构管片自动拼装过程中位姿检测系统的精度和环境适应能力,提出了一种融合线激光传感器与RGB-D相机的高鲁棒性多源定位方法。在感知层面,利用5个线激光传感器提取管片的边缘特征,并结合几何模型推算其弧边与直边交点的坐标,以实现对管片位姿的估计;同时,设计靶标系统,借助RGB-D相机获取管片图像与深度信息,并通过坐标变换来解算靶标相对于拼装机器人末端的空间姿态。针对单一传感器易受环境干扰的局限性,提出了改进的自适应加权融合(improved adaptive weighted fusion,IAWF)算法,基于观测支持度和测量方差动态调整权重,以实现高精度与高鲁棒性的融合定位。最后,通过仿真来验证IAWF算法在传感器异常条件下的稳定性与优越性;同时,构建融合定位实验平台,评估IAWF算法在正常、低光照及线激光测量数据异常等多种工况下的定位性能。结果表明,所提出的融合定位方法在保持高测量精度的同时显著提升了管片位姿检测系统在复杂环境下的抗干扰能力,平均位置误差降低了28.4%,平均姿态误差降低了34.2%,优于单一传感器的测量效果;管片拼装的最大错台和最大间隙分别为4.8 mm和4.6 mm,满足实际工程要求。研究结果为盾构管片自动化拼装的智能感知系统设计提供了理论依据与技术支撑。 展开更多
关键词 盾构管片 位姿检测 融合定位 线激光传感器 RGB-D相机
在线阅读 下载PDF
上一页 1 2 22 下一页 到第
使用帮助 返回顶部