期刊文献+
共找到442篇文章
< 1 2 23 >
每页显示 20 50 100
Depth Estimation Based on Monocular Camera Sensors in Autonomous Vehicles: A Self‑supervised Learning Approach 被引量:5
1
作者 Guofa Li Xingyu Chi Xingda Qu 《Automotive Innovation》 EI CSCD 2023年第2期268-280,共13页
Estimating depth from images captured by camera sensors is crucial for the advancement of autonomous driving technologies and has gained significant attention in recent years.However,most previous methods rely on stac... Estimating depth from images captured by camera sensors is crucial for the advancement of autonomous driving technologies and has gained significant attention in recent years.However,most previous methods rely on stacked pooling or stride convolution to extract high-level features,which can limit network performance and lead to information redundancy.This paper proposes an improved bidirectional feature pyramid module(BiFPN)and a channel attention module(Seblock:squeeze and excitation)to address these issues in existing methods based on monocular camera sensor.The Seblock redistributes channel feature weights to enhance useful information,while the improved BiFPN facilitates efficient fusion of multi-scale features.The proposed method is in an end-to-end solution without any additional post-processing,resulting in efficient depth estimation.Experiment results show that the proposed method is competitive with state-of-the-art algorithms and preserves fine-grained texture of scene depth. 展开更多
关键词 Autonomous vehicle camera sensor Deep learning Depth estimation Self-supervised
原文传递
Sensor planning method for visual tracking in 3D camera networks 被引量:1
2
作者 Anlong Ming Xin Chen 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2014年第6期1107-1116,共10页
Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks a... Most sensors or cameras discussed in the sensor network community are usually 3D homogeneous, even though their2 D coverage areas in the ground plane are heterogeneous. Meanwhile, observed objects of camera networks are usually simplified as 2D points in previous literature. However in actual application scenes, not only cameras are always heterogeneous with different height and action radiuses, but also the observed objects are with 3D features(i.e., height). This paper presents a sensor planning formulation addressing the efficiency enhancement of visual tracking in 3D heterogeneous camera networks that track and detect people traversing a region. The problem of sensor planning consists of three issues:(i) how to model the 3D heterogeneous cameras;(ii) how to rank the visibility, which ensures that the object of interest is visible in a camera's field of view;(iii) how to reconfigure the 3D viewing orientations of the cameras. This paper studies the geometric properties of 3D heterogeneous camera networks and addresses an evaluation formulation to rank the visibility of observed objects. Then a sensor planning method is proposed to improve the efficiency of visual tracking. Finally, the numerical results show that the proposed method can improve the tracking performance of the system compared to the conventional strategies. 展开更多
关键词 camera model sensor planning camera network visual tracking
在线阅读 下载PDF
Stereoscopic Camera-Sensor Model for the Development of Highly Automated Driving Functions within a Virtual Test Environment
3
作者 René Degen Martin de Fries +3 位作者 Alexander Nüßgen Marcus Irmer Mats Leijon Margot Ruschitzka 《Journal of Transportation Technologies》 2023年第1期87-114,共28页
The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments... The need for efficient and reproducible development processes for sensor and perception systems is growing with their increased use in modern vehicles. Such processes can be achieved by using virtual test environments and virtual sensor models. In the context of this, the present paper documents the development of a sensor model for depth estimation of virtual three-dimensional scenarios. For this purpose, the geometric and algorithmic principles of stereoscopic camera systems are recreated in a virtual form. The model is implemented as a subroutine in the Epic Games Unreal Engine, which is one of the most common Game Engines. Its architecture consists of several independent procedures that enable a local depth estimation, but also a reconstruction of a whole three-dimensional scenery. In addition, a separate programme for calibrating the model is presented. In addition to the basic principles, the architecture and the implementation, this work also documents the evaluation of the model created. It is shown that the model meets specifically defined requirements for real-time capability and the accuracy of the evaluation. Thus, it is suitable for the virtual testing of common algorithms and highly automated driving functions. 展开更多
关键词 sensor Model Virtual Test Environment Stereoscopic camera Unreal Engine OPENCV ADAS/AD
在线阅读 下载PDF
基于复杂设施农业环境的多传感器融合建图
4
作者 张三强 钱刚 +4 位作者 虢淇泽 刘微 吴杰 周红宇 胡新宇 《农机化研究》 北大核心 2026年第6期179-187,共9页
针对当前2D激光雷达SLAM系统不适应复杂设施农业环境建图和3D激光雷达成本高昂的问题,基于阿克曼农业机器人平台提出了一种2D激光雷达、视觉RGB-D相机与轮式里程计融合的建图方法,构建了2D激光雷达、RGB-D相机与轮式里程计多传感器融合... 针对当前2D激光雷达SLAM系统不适应复杂设施农业环境建图和3D激光雷达成本高昂的问题,基于阿克曼农业机器人平台提出了一种2D激光雷达、视觉RGB-D相机与轮式里程计融合的建图方法,构建了2D激光雷达、RGB-D相机与轮式里程计多传感器融合建图模型,对视觉-雷达-轮式里程计融合的SLAM建图过程进行了研究分析。在模拟的复杂设施农业环境中进行试验,对提出的建图方法进行了验证。试验结果显示:该方法建立的环境地图为二维平面与三维空间的融合地图,误差最大为2.2%,2D激光雷达建图的地图误差最大为2.9%,RGB-D相机纯视觉建图的地图误差最大为4.4%,融合建图地图的精度高于2D激光雷达与RGB-D相机建图。融合地图中,障碍物长、宽、高的最大误差分别为16.3%、20.9%、12.1%,障碍物质心到建图起始点的距离最大误差为4.5%,均在合理范围内,满足复杂设施农业环境中自动导航的建图要求,有效改善了农业机器人2D激光雷达在复杂设施农业环境下建图的局限性,同时解决了3D激光雷达成本昂贵、不利于农业机器人推广应用的问题,为农业机器人建图与导航研究提供了理论基础与数据支撑。 展开更多
关键词 设施农业 多传感器融合 SLAM 2D激光雷达 RGB-D深度相机 轮式里程计
在线阅读 下载PDF
激光传感器感知环境信息和视觉融合的机器人定位研究
5
作者 范新明 朱锦新 邵俊 《激光杂志》 北大核心 2026年第2期216-221,共6页
为使机器人能够全面感知各种复杂环境,在确保移动位姿稳定的前提下,使其能在各种环境中均能实现稳定精确定位,提出基于激光传感器感知环境信息和视觉融合的机器人定位方法。该方法利用双目相机和激光传感器分别进行机器人空间标定和移... 为使机器人能够全面感知各种复杂环境,在确保移动位姿稳定的前提下,使其能在各种环境中均能实现稳定精确定位,提出基于激光传感器感知环境信息和视觉融合的机器人定位方法。该方法利用双目相机和激光传感器分别进行机器人空间标定和移动环境信息感知,将两者的结果统一到相同的坐标系中,获取机器人的全局移动位姿;依据该位姿结果,采用编码器与卡尔曼滤波方法全面融合机器人感知到的环境细节信息,从而准确确定机器人在空间中的位置。实验表明:该方法可以准确地调节关节夹角,使其平移误差均小于0.14%,而旋转角度误差均小于0.05°;并精确融合机器人激光成像信息与视觉信息,以此准确定位机器人当前位置。 展开更多
关键词 激光传感器 双目相机 参数矩阵 编码器 卡尔曼滤波 视觉融合
原文传递
基于相机传感器的轻量级全景分割网络
6
作者 郭蕊 周高利 洪祥龙 《传感器与微系统》 北大核心 2026年第1期117-120,共4页
针对目前主流的高性能全景分割方法计算开销大,难以满足实时应用需求。提出了一种创新的基于相机传感器的单阶段轻量级全景分割网络,该网络采用共享特征提取主干,并配备3个专用分支分别处理目标检测、语义分割和实例级注意力掩码生成。... 针对目前主流的高性能全景分割方法计算开销大,难以满足实时应用需求。提出了一种创新的基于相机传感器的单阶段轻量级全景分割网络,该网络采用共享特征提取主干,并配备3个专用分支分别处理目标检测、语义分割和实例级注意力掩码生成。设计的新型全景分割头通过空间嵌入学习生成实例感知的软注意力掩码,实现了物体类别语义掩码与实例软掩码在像素层面的自然融合,无需额外后处理即可直接输出全景分割结果。在COCO和Cityscapes数据集上的实验表明,该方法在精度和速度方面均达到先进水平,尤其在Cityscapes数据集1024×2048分辨率图像上取得了59.7的全景质量分数,同时保持超过10 fps的实时推理速度。 展开更多
关键词 全景分割 相机传感器 单阶段 轻量级
在线阅读 下载PDF
一种基于Spike Camera的彩色脉冲相机仿真
7
作者 马雪山 刘斌 +2 位作者 杨静 田娟 马雷 《现代计算机》 2022年第12期17-23,共7页
受到生物视觉机制的启发,一种新型的仿视网膜中央凹的视觉传感器Spike Camera被研制出来。相比传统基于帧的相机和其他事件相机,Spike Camera更适合处理超高速场景的视觉任务。目前物理设备推广受到限制,此类视觉类传感器的发展和应用... 受到生物视觉机制的启发,一种新型的仿视网膜中央凹的视觉传感器Spike Camera被研制出来。相比传统基于帧的相机和其他事件相机,Spike Camera更适合处理超高速场景的视觉任务。目前物理设备推广受到限制,此类视觉类传感器的发展和应用也受到影响。在本文中,我们实现了一种基于Spike Camera的仿真建模方法,将连续的视频帧转化成脉冲数据,再根据脉冲数据重构成图像帧。通过仿真程序,探索了在Spike Camera传感器上的彩色信息脉冲编码的方式。实验结果表明,相比其他彩色编码方式,使用单通道的RGB彩色脉冲编码能在损失很少的图像信息的情况下,极大地压缩脉冲数据,减少传输带宽。本文的研究结果对设计彩色脉冲相机具有重要参考意义。 展开更多
关键词 脉冲相机 彩色脉冲 传感器仿真
在线阅读 下载PDF
洗煤厂皮带安全运行智能监测系统设计
8
作者 张强 《煤》 2026年第1期100-104,共5页
针对洗煤厂皮带系统核心区域监测不足的现状,原有模拟监控摄像头存在图像分辨率低、维护成本高昂且不便的问题,提出在皮带的机头与机尾位置安装高性能矿用光纤摄像机,提升现场监控的精确度和效率;在皮带的主驱动滚筒及减速器上,集成安... 针对洗煤厂皮带系统核心区域监测不足的现状,原有模拟监控摄像头存在图像分辨率低、维护成本高昂且不便的问题,提出在皮带的机头与机尾位置安装高性能矿用光纤摄像机,提升现场监控的精确度和效率;在皮带的主驱动滚筒及减速器上,集成安装温度与振动传感器,实时监测设备运行过程中的温度波动与振动情况,构建一套集数据采集、分析、预警于一体的皮带运行状态在线监测系统。该系统不仅能够实时展示皮带的运行状况,还能通过智能算法对收集到的数据进行深度分析,自动识别潜在的安全隐患或性能衰退趋势,实现故障的早期预警与快速响应,为洗煤厂的稳定高效运行提供坚实的技术支撑。 展开更多
关键词 监控摄像头 图像分辨率 光纤摄像机 振动传感器 数据采集 运行状况
在线阅读 下载PDF
弱边缘特征的LiDAR-红外相机高精度外参标定方法
9
作者 王妍 左勇 +4 位作者 唐义 黄朝围 陆悦 洪小斌 伍剑 《红外与激光工程》 北大核心 2026年第1期155-164,共10页
LiDAR-红外相机外参标定是实现多源传感器信息融合的关键环节。针对传统方法对标定板要求高且需人工干预以及红外图像分辨率低、边缘模糊的问题,文中提出了弱边缘特征的LiDAR-红外相机高精度外参标定方法。首先,设计了跨模态自适应角点... LiDAR-红外相机外参标定是实现多源传感器信息融合的关键环节。针对传统方法对标定板要求高且需人工干预以及红外图像分辨率低、边缘模糊的问题,文中提出了弱边缘特征的LiDAR-红外相机高精度外参标定方法。首先,设计了跨模态自适应角点检测框架,将红外图像与点云特征提取统一建模为“粗定位-局部增强-自适应精修”的多层级迭代优化过程,有效解决了不同模态下特征分布不一致和弱边缘特性导致的误检问题。实验结果表明,该框架在红外图像与三维点云数据中分别实现了83%和89%的特征点检测重复率;其次,结合EPnP建模与Ceres非线性优化,文中方法实现了无需标定板的全自动高精度外参估计,平均重投影误差为1.74 pixel,较标定板方法降低54.45%,较引入SAM大模型的方法降低19.44%;最后,通过多场景实验验证,该方法在不同光照和测距条件下均能保持稳定性能,为全天时LiDAR-红外相机多源融合感知提供了可靠支撑。 展开更多
关键词 外参标定 红外相机 激光点云 多传感器融合
原文传递
基于Cameralink接口的双目CMOS APS成像系统的研究 被引量:1
10
作者 张明宇 刘金国 +2 位作者 李余 宋丹 孔德柱 《光电子技术》 CAS 2008年第4期270-273,共4页
为满足大视场、多个图像传感器同时使用、多光电图像传感器成像系统的响应一致性等技术需求,设计了一种大视场的成像系统。将先进先出缓存(FIFO)应用到数据传输技术当中,保证了系统多种图像数据同步实时输出;在基于低压差分信号(LVDS)... 为满足大视场、多个图像传感器同时使用、多光电图像传感器成像系统的响应一致性等技术需求,设计了一种大视场的成像系统。将先进先出缓存(FIFO)应用到数据传输技术当中,保证了系统多种图像数据同步实时输出;在基于低压差分信号(LVDS)技术上同时采用Camera link接口协议,设计了一种低成本、高速、稳定、简易的双目半导体金属氧化物有源传感器(CMOSAPS)成像系统,并深入探讨了系统的基本组成和工作原理;利用可编程门阵列完成自上而下的模块设计;并对系统部分工作时序进行了仿真,并进行板上调试;结果表明,本设计方案满足系统的大视场需求,为后续的图像采集工作打下了坚实的基础。 展开更多
关键词 cameralink接口 双目 CMOS APS图像传感器 现场可编程门阵列
在线阅读 下载PDF
Energy Efficient Content Based Image Retrieval in Sensor Networks
11
作者 Qurban A. Memon Hend Alqamzi 《International Journal of Communications, Network and System Sciences》 2012年第7期405-415,共11页
The presence of increased memory and computational power in imaging sensor networks attracts researchers to exploit image processing algorithms on distributed memory and computational power. In this paper, a typical p... The presence of increased memory and computational power in imaging sensor networks attracts researchers to exploit image processing algorithms on distributed memory and computational power. In this paper, a typical perimeter is investigated with a number of sensors placed to form an image sensor network for the purpose of content based distributed image search. Image search algorithm is used to enable distributed content based image search within each sensor node. The energy model is presented to calculate energy efficiency for various cases of image search and transmission. The simulations are carried out based on consideration of continuous monitoring or event driven activity on the perimeter. The simulation setups consider distributed image processing on sensor nodes and results show that energy saving is significant if search algorithms are embedded in image sensor nodes and image processing is distributed across sensor nodes. The tradeoff between sensor life time, distributed image search and network deployed cost is also investigated. 展开更多
关键词 IMAGE sensor NETWORKS IMAGE Identification in sensor Network camera sensor NETWORKS Distributed IMAGE SEARCH
在线阅读 下载PDF
Modeling and Rectification of Rolling Shutter Effect in CMOS Aerial Cameras
12
作者 Lei Wan Ye Zhang +1 位作者 Ping Jia Jiajia Xu 《Journal of Harbin Institute of Technology(New Series)》 EI CAS 2017年第4期71-77,共7页
Due to the electronic rolling shutter, high-speed Complementary Metal-Oxide Semiconductor( CMOS) aerial cameras are generally subject to geometric distortions,which cannot be perfectly corrected by conventional vision... Due to the electronic rolling shutter, high-speed Complementary Metal-Oxide Semiconductor( CMOS) aerial cameras are generally subject to geometric distortions,which cannot be perfectly corrected by conventional vision-based algorithms. In this paper we propose a novel approach to address the problem of rolling shutter distortion in aerial imaging. A mathematical model is established by the coordinate transformation method. It can directly calculate the pixel distortion when an aerial camera is imaging at arbitrary gesture angles.Then all pixel distortions form a distortion map over the whole CMOS array and the map is exploited in the image rectification process incorporating reverse projection. The error analysis indicates that within the margin of measuring errors,the final calculation error of our model is less than 1/2 pixel. The experimental results show that our approach yields good rectification performance in a series of images with different distortions. We demonstrate that our method outperforms other vision-based algorithms in terms of the computational complexity,which makes it more suitable for aerial real-time imaging. 展开更多
关键词 aerial camera CMOS sensor ROLLING SHUTTER effect COORDINATE transformation image RECTIFICATION
在线阅读 下载PDF
多视图相机传感器与多模态特征融合的三维重建 被引量:2
13
作者 尉艳丽 张素智 《传感器与微系统》 北大核心 2025年第11期101-105,共5页
针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另... 针对当前三维(3D)重建模型细节捕捉不足、多视图变化适应性差等问题。提出了一种多视图相机传感器与多模态特征融合的3D重建模型,使用多视图的相机传感器数据,通过多模态特征融合和全局—局部注意力机制,有效提高复杂场景的重建质量。另外,从多视图二维(2D)图像中提取颜色、深度、语义学等多模态特征,通过动态调整特征的重要性来准确捕捉关键区域。实验结果表明,本文模型在局部光场融合(LLFF)和丹麦技术大学(DTU)数据集上的3D重建表现优于现有主流模型,模型在3视图、6视图和9视图输入的峰值信噪比(PSNR)指标分别达到20.01、23.56和24.58。本文模型在复杂场景和多视图变化中表现出较强的鲁棒性,验证了模型的有效性和可靠性。 展开更多
关键词 多视图相机传感器 多模态特征融合 三维重建
在线阅读 下载PDF
激光雷达和相机传感器融合的两阶段3D目标检测 被引量:2
14
作者 洪宝惜 范智淳 柳萍萍 《传感器与微系统》 北大核心 2025年第11期110-114,共5页
针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达... 针对自动驾驶和机器人技术对感知系统的高精度需求,提出了一种激光雷达(LiDAR)与相机传感器融合的两阶段3D目标检测方法FusionDetect,以解决现有激光雷达检测器因点云稀疏性导致的远距离物体识别难题。该方法通过创新性地融合激光雷达的几何信息与相机的纹理信息,采用感兴趣区域(RoI)池化技术统一处理多模态数据,并设计模态内自注意力与交叉注意力机制实现特征增强与信息融合。实验证明,在KITTI和Waymo基准测试中,FusionDetect不仅使主流检测器性能获得突破性提升,更在Waymo数据集上以6.45%的平均精度均值(mAP)提升超越基线模型,显著优于现有两阶段方法。研究成果验证了多模态传感器融合在提升3D目标检测精度方面的关键作用。 展开更多
关键词 3D目标检测 传感器融合 激光雷达 相机 多模态数据 注意力机制
在线阅读 下载PDF
视觉和激光SLAM发展综述与展望 被引量:3
15
作者 程亮 罗洲 +1 位作者 何赟泽 陈永灿 《中国测试》 北大核心 2025年第6期1-16,共16页
同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地... 同时定位与地图构建(simultaneous localization and mapping,SLAM)技术在无人化装备上有着广泛的应用,可实现室内或室外自主的定位建图任务。该文首先对视觉和激光SLAM基本框架进行介绍,详细阐述前端里程计、后端优化、回环检测以及地图构建这四个模块的作用以及所采用的算法;在这之后梳理归纳视觉/激光SLAM发展历程中的经典算法并分析其优缺点以及在此之后优秀的改进方案;此外,列举当前SLAM技术在生活中的典型应用场景,展示在自动驾驶、无人化装备等领域的重要作用;最后讨论SLAM系统当前的发展趋势和研究进展,以及在未来应用中需要考虑的挑战和问题,包括多类型传感器融合、与深度学习技术的融合以及跨学科合作的关键作用。通过对SLAM技术的全面分析和讨论,为进一步推动SLAM技术的发展和应用提供深刻的理论指导和实践参考。 展开更多
关键词 同时定位与地图构建 相机 激光雷达 多传感器融合
在线阅读 下载PDF
基于多传感器融合的堆叠棒料识别和抓取 被引量:1
16
作者 卢欣龙 赵岩 +3 位作者 代凡 李棋 杨凌云 方辉 《机械工程师》 2025年第3期27-31,35,共6页
针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距... 针对合金棒料等刀具原材料的抓取问题,提出了一种基于多传感器融合的方式完成识别和抓取棒料工作。采用眼在手外的安装方式并在完成手眼标定后,使用物体边缘轮廓等方法,得到了棒料抓取点和棒料方向角。通过移动激光测距仪,处理得到的距离数据,获取棒料中心位置的深度信息。最后引导机械臂到达指定位置进行棒料抓取。实验表明,在误差允许范围内,通过多传感器引导机械臂寻找并抓取棒料具有良好的准确性。 展开更多
关键词 相机标定 多传感器融合 轮廓检测 物体抓取
在线阅读 下载PDF
基于多传感器融合的无人车目标检测系统研究 被引量:1
17
作者 陈晓锋 李郁峰 +3 位作者 王传松 郭荣 樊宏丽 朱堉伦 《激光杂志》 北大核心 2025年第5期94-100,共7页
针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov... 针对单一传感器存在受环境因素影响较大,容易造成漏检,误检且不同传感器之间的数据格式不同,融合复杂度高的问题,提出一种基于激光雷达和相机的决策级融合方法。首先对激光雷达和相机进行时空对齐,然后分别使用PointPillars算法和Yolov5算法对预处理后的点云数据和图像数据进行迁移训练和目标检测得到检测框,最后使用交并比匹配、D-S证据理论和加权框融合方法对目标结果进行融合。通过实车试验,得出提出的融合方法在激光雷达和相机的决策级融合场景中能够有效结合两者的优势,实现对环境的更全面感知,有效提升目标检测精度,减小误检,漏检的概率。 展开更多
关键词 多传感器融合 激光雷达 单目相机 D-S证据理论 加权框融合
原文传递
基于多特征匹配的点云与图像的融合方法
18
作者 许浩 王肖霞 杨风暴 《激光杂志》 北大核心 2025年第3期105-112,共8页
无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的... 无人探测平台在利用激光雷达与可见光相机的优势互补信息时,仅借助标定物上的特征点对点云和彩色图像进行校准融合的效果不够理想,而且需要多次采集数据来拟合结果。针对上述问题,提出一种基于激光雷达与可见光相机的分布式自动标定的融合方法,使得融合得到的数据同时具备点云的空间立体特性与可见光图像的彩色纹理信息。该方法首先通过平面标定板对激光雷达和相机进行标定获取初始变换关系,然后利用二者传感器共同视野中的自然边缘特征进行对齐,最后将二者数据融合并得到可视化结果。所提方法相比于基于人工匹配的标定融合方法以及基于平面标定板的自动标定融合的方法,精度分别提升了33.8%和23.1%,可视化结果很好地还原了真实场景。 展开更多
关键词 激光雷达 可见光相机 外参标定 传感器融合
原文传递
基于RGB图像与改进YOLOv8的花卉作物表型方法研究
19
作者 胡瑶 袁畅 +2 位作者 接浩 刘庆华 刘泓锐 《电子设计工程》 2025年第22期10-14,19,共6页
为提高花卉收割和修剪等劳动力密集型工作的效率,采用了一种基于RGB图像和改进YO⁃LOv8的花卉作物表型方法。通过RGB-D获取树干和树枝等数据,并构建基于YOLOv8x-seg的树干和树枝分割算法,采用主成分分析方法(Principal Component Analysi... 为提高花卉收割和修剪等劳动力密集型工作的效率,采用了一种基于RGB图像和改进YO⁃LOv8的花卉作物表型方法。通过RGB-D获取树干和树枝等数据,并构建基于YOLOv8x-seg的树干和树枝分割算法,采用主成分分析方法(Principal Component Analysis,PCA)估算树枝截面的大小和方向,通过估计的树枝直径推算树枝截面面积(Limb Cross Section Area,LCSA),该面积可作为作物负荷估算的输入,LCSA越大,表明树枝的潜在开花能力越强。由实验结果可知,改进后模型的F1-score较原YOLOv8n-seg模型提高了4.0%。同时,精确度(Precision)和召回率(Recall)相较于原模型分别提高了3.0%和4.0%,优于其他对比目标检测算法。 展开更多
关键词 深度学习 机器视觉 目标检测 YOLOv8 负荷估算 相机传感器
在线阅读 下载PDF
图像角点与点云曲率渲染边界特征下的雷视一体标定 被引量:1
20
作者 张代聪 李倩 +2 位作者 余继龙 陈文博 罗宝琪 《西安工程大学学报》 2025年第2期109-117,共9页
激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者... 激光雷达和相机组成的多传感器感知系统首先要经过标定才能进行建模、识别等工作。随着激光雷达的扫描范围逐步扩大及应用场景的多样化,为确保雷视标定在室内外及远近距离等场景中均能灵活使用,提出了一种无需标定板,通过对建筑物或者其他自然场景特征点选取的方法,对激光雷达与相机的外参进行标定。该方法结合了点云的曲率渲染边界特征辅助特征点的选取以及二维图像角点提取算法,能够方便快捷地实现具有自然特征的场景下的雷视一体外参标定。实验结果表明:标定的最大平移向量均值误差为34 mm,最大旋转向量均值误差为0.493°,能够满足常用的厘米级激光雷达和相机雷视一体标定的需求。 展开更多
关键词 多传感器 雷视标定 图像角点 曲率渲染 激光雷达
在线阅读 下载PDF
上一页 1 2 23 下一页 到第
使用帮助 返回顶部