期刊文献+
共找到331篇文章
< 1 2 17 >
每页显示 20 50 100
Towards complex scenes: A deep learning-based camouflaged people detection method for snapshot multispectral images 被引量:2
1
作者 Shu Wang Dawei Zeng +3 位作者 Yixuan Xu Gonghan Yang Feng Huang Liqiong Chen 《Defence Technology(防务技术)》 SCIE EI CAS CSCD 2024年第4期269-281,共13页
Camouflaged people are extremely expert in actively concealing themselves by effectively utilizing cover and the surrounding environment. Despite advancements in optical detection capabilities through imaging systems,... Camouflaged people are extremely expert in actively concealing themselves by effectively utilizing cover and the surrounding environment. Despite advancements in optical detection capabilities through imaging systems, including spectral, polarization, and infrared technologies, there is still a lack of effective real-time method for accurately detecting small-size and high-efficient camouflaged people in complex real-world scenes. Here, this study proposes a snapshot multispectral image-based camouflaged detection model, multispectral YOLO(MS-YOLO), which utilizes the SPD-Conv and Sim AM modules to effectively represent targets and suppress background interference by exploiting the spatial-spectral target information. Besides, the study constructs the first real-shot multispectral camouflaged people dataset(MSCPD), which encompasses diverse scenes, target scales, and attitudes. To minimize information redundancy, MS-YOLO selects an optimal subset of 12 bands with strong feature representation and minimal inter-band correlation as input. Through experiments on the MSCPD, MS-YOLO achieves a mean Average Precision of 94.31% and real-time detection at 65 frames per second, which confirms the effectiveness and efficiency of our method in detecting camouflaged people in various typical desert and forest scenes. Our approach offers valuable support to improve the perception capabilities of unmanned aerial vehicles in detecting enemy forces and rescuing personnel in battlefield. 展开更多
关键词 Camouflaged people detection Snapshot multispectral imaging Optimal band selection MS-YOLO complex remote sensing scenes
在线阅读 下载PDF
Passive Binocular Optical Motion Capture Technology Under Complex Illumination
2
作者 FU Yujia ZHANG Jian +4 位作者 ZHOU Liping LIU Yuanzhi QIN Minghui ZHAO Hui TAO Wei 《Journal of Shanghai Jiaotong university(Science)》 2025年第2期352-362,共11页
Passive optical motion capture technology is an effective mean to conduct high-precision pose estimation of small scenes of mobile robots;nevertheless,in the case of complex background and stray light interference in ... Passive optical motion capture technology is an effective mean to conduct high-precision pose estimation of small scenes of mobile robots;nevertheless,in the case of complex background and stray light interference in the scene,due to the infuence of target adhesion and environmental reflection,this technology cannot estimate the pose accurately.A passive binocular optical motion capture technology under complex illumination based on binocular camera and fixed retroreflective marker balls has been proposed.By fixing multiple hemispherical retrorefective marker balls on a rigid base,it uses binocular camera for depth estimation to obtain the fixed position relationship between the feature points.After performing unsupervised state estimation without manual operation,it overcomes the infuence of refection spots in the background.Meanwhile,contour extraction and ellipse least square fitting are used to extract the marker balls with incomplete shape as the feature points,so as to solve the problem of target adhesion in the scene.A FANUC m10i-a robot moving with 6-DOF is used for verification using the above methods in a complex lighting environment of a welding laboratory.The result shows that the average of absolute position errors is 5.793mm,the average of absolute rotation errors is 1.997°the average of relative position errors is 0.972 mm,and the average of relative rotation errors is 0.002°.Therefore,this technology meets the requirements of high-precision measurement in a complex lighting environment when estimating the 6-DOF-motion mobile robot and has very significant application prospects in complex scenes. 展开更多
关键词 complex scenes pose estimation binocular camera fixed retroreflective target least square fitting
原文传递
自然资源遥感智能解译中复杂场景样本抽样方法研究 被引量:1
3
作者 李连发 高茜琳 +5 位作者 贺伟 陈淼淼 杨晓梅 王志华 张俊瑶 刘晓亮 《地球信息科学学报》 北大核心 2025年第2期331-349,共19页
【目的】随着遥感分类解译技术的发展,复杂场景下自然资源遥感智能解译已成为研究的焦点。在这一背景下,遥感样本的获取和选择对提高解译的准确性和可靠性至关重要。我国地形地貌多样,气象条件复杂,地表结构细碎,导致复杂地表具有时空... 【目的】随着遥感分类解译技术的发展,复杂场景下自然资源遥感智能解译已成为研究的焦点。在这一背景下,遥感样本的获取和选择对提高解译的准确性和可靠性至关重要。我国地形地貌多样,气象条件复杂,地表结构细碎,导致复杂地表具有时空分异性,直接影响遥感样本的选择和质量。传统抽样方法所选样本对总体特征的代表性较差,进而影响解译效果。【方法】为解决这一问题,本研究总结了遥感分类标记样本抽样方法、多尺度形态转换扩充样本以及标记样本质量评估的关键要点,从理论上阐述了样本优选以减少偏差的必要性,并提出了基于地表复杂度的分区/层和加权样本优化方法。该方法通过考虑地形的复杂性和多样性,优化了样本的抽样过程,减少了因抽样偏差带来的解译误差。【结果】通过遵循这些要点和技术,可以获得高质量且有强代表性的标记样本,从而提高遥感分类建模解译精度和/或效益。本研究总结了3个基于复杂度的样本优选的实验结果,并为未来遥感智能解译技术的发展提供了坚实的理论和技术基础。【结论】这项研究对于通过样本优选推动复杂场景下遥感自然资源分类建模及智能解译的研究和实际应用具有重要的参考价值。 展开更多
关键词 遥感智能解译 自然资源 优化样本抽样设计 形态转换 复杂场景
原文传递
面向复杂自然场景的遥感地学分区智能解译框架及初探 被引量:1
4
作者 王志华 杨晓梅 +4 位作者 张俊瑶 刘晓亮 李连发 董文 贺伟 《地球信息科学学报》 北大核心 2025年第2期305-330,共26页
【目的】当下,面向多圈层耦合、人类干扰强烈的复杂自然场景遥感智能解译在地学研究和实际业务中常存在不好用的问题。为此,本文从遥感地学认知原理角度出发,在明晰遥感智能解译的使命是依托遥感大数据更好地辅助建立数字地球之后,认为... 【目的】当下,面向多圈层耦合、人类干扰强烈的复杂自然场景遥感智能解译在地学研究和实际业务中常存在不好用的问题。为此,本文从遥感地学认知原理角度出发,在明晰遥感智能解译的使命是依托遥感大数据更好地辅助建立数字地球之后,认为达成一致的知识表征模型是解决问题的关键,进而提出遥感解译与地学认知应该耦合为一个系统,以实现“数据获取知识”与“知识引导数据”的双向驱动。【分析】在此基础上,提出以遥感地学分区为纽带的智能解译框架,以打通已有地学知识向遥感智能解译过程的输入与引导,增加解译结果与已有地学知识体系的匹配度。该框架主要依靠定量化的场景复杂性度量和地理分区知识耦合,形成面向遥感智能解译的地学分区方法以及分区样本抽样与规范,从而实现面向大区域的知识耦合下分区解译策略。【展望】通过复杂度与优化抽样实验、影像分区分割尺度优选、耕地类型细分等实验,初步揭示了本框架思路在优选样本、影像分割、耕地精细类型识别等遥感智能解译多方面均存在巨大潜力。 展开更多
关键词 遥感大数据 数字地球 遥感智能解译 信息提取 地理分区/区划 土地利用/覆被分类 复杂自然场景 场景分类 地学知识图谱
原文传递
天基空间小目标复杂场景数字成像仿真
5
作者 李鹏飞 徐伟 +2 位作者 朴永杰 方应红 石敦攀 《系统仿真学报》 北大核心 2025年第9期2315-2334,共20页
针对天基空间目标检测技术研究对空间图像数据源的普遍需求,重点面向智能算法训练数据不足以及传统算法使用数据单一等问题,以生成空间小目标复杂场景下动态数字序列图像为目的,设计了一种基于天基观测平台的可见光数字成像仿真系统。... 针对天基空间目标检测技术研究对空间图像数据源的普遍需求,重点面向智能算法训练数据不足以及传统算法使用数据单一等问题,以生成空间小目标复杂场景下动态数字序列图像为目的,设计了一种基于天基观测平台的可见光数字成像仿真系统。提出了一种小目标成像模型,基于二维形状特征点描述法及成像解析模型,对空间目标进行数字建模及成像模拟;设计了一种背景恒星成像方法,经过视场恒星选取、成像坐标转换和亚像素级位置建模,可实现精度达±0.005像素的星点目标位置成像建模;设计了空间环境下多种光照背景的动态模型,并进行了成像噪声分析及建模,拓扑了空间目标检测图像的场景种类及鲁棒性检测的试验条件。在运动仿真算法设计中加入了目标灰度动态变化、目标曲线运动、运动拖尾以及平台抖动等成像仿真功能。仿真结果表明:该仿真系统可生成定制化的动态数字图像序列。经必要性与充分性验证评估,本数字仿真系统满足空间目标检测算法开发对多元图像数据的需求,对空间目标检测算法研究有一定使用价值。 展开更多
关键词 空间小目标 复杂场景 成像模型 图像处理 动态仿真
原文传递
复杂场景下的多人人体姿态估计算法
6
作者 石磊 王天宝 +3 位作者 孟彩霞 王清贤 高宇飞 卫琳 《郑州大学学报(理学版)》 北大核心 2025年第4期1-7,共7页
复杂场景下人员的交叉遮挡,导致现有的人体姿态估计算法存在准确度不高和人体骨架错连的问题。为此,提出一种复杂场景下的多人人体姿态估计优化算法。首先,使用分组分块级联卷积替换普通卷积,结合特征融合促进特征通道之间的信息交互,... 复杂场景下人员的交叉遮挡,导致现有的人体姿态估计算法存在准确度不高和人体骨架错连的问题。为此,提出一种复杂场景下的多人人体姿态估计优化算法。首先,使用分组分块级联卷积替换普通卷积,结合特征融合促进特征通道之间的信息交互,在不引入额外计算成本的前提下提高算法精度;其次,引入空间注意力机制挖掘与人体姿态估计任务相关的空间语义特征,将网络结构并行化处理以提高算法性能;最后,对大卷积核和空间注意力机制的嵌入位置进行轻量化处理,减少时间开销。与现有的自底向上的姿态估计算法OpenPifPaf++相比,所提算法在COCO 2017数据集上平均准确率提高0.8个百分点;在CrowdPose数据集上平均准确率比OpenPifPaf算法提高1.2个百分点,复杂场景下对应的准确率提高1.5个百分点。 展开更多
关键词 复杂场景 多人人体姿态估计 分组卷积 空间注意力机制 轻量化
在线阅读 下载PDF
复杂场景下SAR图像多尺度舰船检测算法 被引量:1
7
作者 贺顺 王雨竹 杨志伟 《电子技术应用》 2025年第3期59-64,共6页
针对复杂场景下的多尺度SAR舰船目标检测存在误检漏检的问题,提出了一种改进的SAR舰船目标检测方法。首先,利用多尺度目标特征提取网络提取特征信息,以提升多尺度目标的检测能力并减少冗余计算。其次,引入可形变卷积(DConv)通过自适应... 针对复杂场景下的多尺度SAR舰船目标检测存在误检漏检的问题,提出了一种改进的SAR舰船目标检测方法。首先,利用多尺度目标特征提取网络提取特征信息,以提升多尺度目标的检测能力并减少冗余计算。其次,引入可形变卷积(DConv)通过自适应调整卷积核的形状来提升复杂场景下SAR舰船目标的检测性能。最后,引入了注意力机制来抑制背景杂波并增强特征信息。实验结果表明,在SSDD数据集和HRSID数据集上改进方法的检测精度分别达到了97.9%和93.1%,整体性能优于现有主流目标检测算法。 展开更多
关键词 目标检测 复杂场景 多尺度船舶检测 合成孔径雷达(SAR) 深度学习
在线阅读 下载PDF
面向复杂动态场景的无人移动视觉技术研究进展
8
作者 张艳宁 王昊宇 +5 位作者 闫庆森 杨佳琪 刘婷 符梦芹 吴鹏 张磊 《中国图象图形学报》 北大核心 2025年第6期1828-1871,共44页
随着人类活动范围的不断扩大和国家利益的持续发展,新域新质无人系统已成为世界各大国科技战略竞争的制高点和制胜未来的关键力量。无人移动视觉技术是无人系统辅助人类透彻感知理解物理世界的核心关键之一,旨在基于无人移动平台捕获的... 随着人类活动范围的不断扩大和国家利益的持续发展,新域新质无人系统已成为世界各大国科技战略竞争的制高点和制胜未来的关键力量。无人移动视觉技术是无人系统辅助人类透彻感知理解物理世界的核心关键之一,旨在基于无人移动平台捕获的视觉数据,精准感知理解复杂动态场景与目标特性。深度神经网络凭借其超强的非线性拟合能力和区分能力,已经成为无人移动视觉技术的基准模型。然而,实际应用中无人系统通常面临成像环境复杂动态、成像目标高速机动—伪装对抗、成像任务需求多样,导致基于深度神经网络的无人移动视觉模型成像质量大幅退化,场景重建解译与目标识别分析精度显著下降,从而严重制约无人系统在复杂动态场景下对物理世界的感知解译能力与应用前景。针对这一挑战,本文深入探讨面向复杂动态场景的无人移动视觉技术发展现状,从图像增强处理、三维重建、场景分割、目标检测识别以及异常检测与行为分析等5个关键技术入手,介绍每项技术的基本研究思路与发展现状,分析每项技术中典型算法的优缺点,探究该技术目前依然面临的问题与挑战,并展望未来研究方向,为面向复杂动态场景的无人移动视觉技术长远发展与落地奠定基础。 展开更多
关键词 无人移动视觉 复杂动态场景 图像增强 三维重建 场景分割 目标检测 异常检测
原文传递
复杂场景下河谷型城市兰州市交通路口视频流数据集
9
作者 火久元 魏金莉 +1 位作者 孟昱煜 王院荣 《中国科学数据(中英文网络版)》 2025年第1期380-389,共10页
兰州市作为典型的河谷型城市,其独特的地理环境和复杂的交通布局为交通管理带来了极大的挑战。为了应对这一挑战,本研究构建了一个针对复杂场景下河谷型城市交通路口的视频流数据集。本数据集涵盖了兰州市内多个关键交通路口的视频监控... 兰州市作为典型的河谷型城市,其独特的地理环境和复杂的交通布局为交通管理带来了极大的挑战。为了应对这一挑战,本研究构建了一个针对复杂场景下河谷型城市交通路口的视频流数据集。本数据集涵盖了兰州市内多个关键交通路口的视频监控数据,包括不同时间段(如早高峰、平峰时段)、不同天气条件(如晴天、雾天等)、不同交通状况(如拥堵、畅通等)、不同光照条件(如光线昏暗、光线充足等)下的视频流数据。数据采集时间为2021年11月16日、12月3日和12月9日。在数据处理方面,本文对视频数据进行了精细化的标注和分类,包括车辆类型、车辆所在车道等方面。本研究构建的兰州市交通路口视频数据集在严格的质量控制流程中,经过了完整性验证、清晰度评估、稳定性检查以及标注准确性校验,确保了数据的高度可靠性。本数据集丰富多样,旨在为智能交通系统的研发、交通拥堵治理和交通事故预防提供坚实的数据支持,从而为河谷型城市的交通流量分析提供实证基础。 展开更多
关键词 河谷型城市 复杂场景 关键交通路口 视频监控数据
在线阅读 下载PDF
引入多级特征与通道注意力复杂场景文本检测算法
10
作者 贾小云 翁佳顺 刘颜荦 《制造业自动化》 2025年第3期127-133,共7页
针对在多样化环境下进行文本识别时遇到的诸如文本倾斜和大小不一致等挑战,提出了一种融合注意力机制和特征整合的高效文本识别算法。首先,通过在深度卷积神经网络的特征提取阶段加入注意力机制,促进了不同层次之间的信息互动,从而减少... 针对在多样化环境下进行文本识别时遇到的诸如文本倾斜和大小不一致等挑战,提出了一种融合注意力机制和特征整合的高效文本识别算法。首先,通过在深度卷积神经网络的特征提取阶段加入注意力机制,促进了不同层次之间的信息互动,从而减少因文本位置多样性导致的漏检情况。其次,使用空洞卷积,这种卷积具有可变感受野的特性,有助于捕捉文本区域的细节信息,并且可以在不同尺度下适应文本的变化。最后,研究通过一个特征金字塔增强机制将不同尺寸、通道和深度的特征高效地结合,并集成为最终用于分割的特征。这不仅提升了文本检测的准确性,还减少了模型的复杂性。研究结果显示,在ICDAR 2015数据集上,此改进算法的检测准确率达到88.1%,这相比当前领先的DBNet算法有所提高。此外,该算法在针对制造业场景的MPSC数据集上的检测准确率达到了90.3%,充分展示了其在处理特定领域问题时的高效性。 展开更多
关键词 文本检测 复杂场景 多级特征 通道注意力
在线阅读 下载PDF
航天发射场异构机器人集群应用设计
11
作者 郑永煌 谌廷政 李晓超 《上海航天(中英文)》 2025年第S1期14-21,共8页
针对航天发射场的智能化应用,设计了3类异构机器人分别完成推进剂加泄连接器对接、电脱插对接和现场智能巡检,替代人工完成发射工位危险环境下的各类箭地对接操作。为解决狭小空间复杂场景机器人灵活应用难题,给出了基于数字孪生的异构... 针对航天发射场的智能化应用,设计了3类异构机器人分别完成推进剂加泄连接器对接、电脱插对接和现场智能巡检,替代人工完成发射工位危险环境下的各类箭地对接操作。为解决狭小空间复杂场景机器人灵活应用难题,给出了基于数字孪生的异构机器人集群控制实现方法。最后通过构建的缩比试验验证平台,验证了机器人集群设计的正确性和数字孪生控制方法的有效性。 展开更多
关键词 航天发射场 异构机器人 复杂场景 数字孪生 集群控制
在线阅读 下载PDF
Attention Shift-Invariant Cross-Evolutionary Feature Fusion Network for Infrared Small Target Detection
12
作者 Siqi Zhang Shengda Pan 《Computers, Materials & Continua》 2025年第9期4655-4676,共22页
Infrared images typically exhibit diverse backgrounds,each potentially containing noise and target-like interference elements.In complex backgrounds,infrared small targets are prone to be submerged by background noise... Infrared images typically exhibit diverse backgrounds,each potentially containing noise and target-like interference elements.In complex backgrounds,infrared small targets are prone to be submerged by background noise due to their low pixel proportion and limited available features,leading to detection failure.To address this problem,this paper proposes an Attention Shift-Invariant Cross-Evolutionary Feature Fusion Network(ASCFNet)tailored for the detection of infrared weak and small targets.The network architecture first designs a Multidimensional Lightweight Pixel-level Attention Module(MLPA),which alleviates the issue of small-target feature suppression during deep network propagation by combining channel reshaping,multi-scale parallel subnet architectures,and local cross-channel interactions.Then,a Multidimensional Shift-Invariant Recall Module(MSIR)is designed to ensure the network remains unaffected by minor input perturbations when processing infrared images,through focusing on the model’s shift invariance.Subsequently,a Cross-Evolutionary Feature Fusion structure(CEFF)is designed to allow flexible and efficient integration of multidimensional feature information from different network hierarchies,thereby achieving complementarity and enhancement among features.Experimental results on three public datasets,SIRST,NUDT-SIRST,and IRST640,demonstrate that our proposed network outperforms advanced algorithms in the field.Specifically,on the NUDT-SIRST dataset,the mAP50,mAP50-95,and metrics reached 99.26%,85.22%,and 99.31%,respectively.Visual evaluations of detection results in diverse scenarios indicate that our algorithm exhibits an increased detection rate and reduced false alarm rate.Our method balances accuracy and real-time performance,and achieves efficient and stable detection of infrared weak and small targets. 展开更多
关键词 Deep learning infrared small target detection complex scenes feature fusion convolution pooling
在线阅读 下载PDF
基于改进YOLOv5的复杂场景电动车头盔检测方法 被引量:2
13
作者 韩东辰 张方晖 +3 位作者 王诗洋 段克盼 李宁星 王凯 《现代电子技术》 北大核心 2025年第1期123-129,共7页
佩戴电动车头盔是安全骑行的重要保障,对电动车驾乘人员佩戴头盔进行有效检测在保障驾乘人员安全方面具有重要意义。电动车头盔检测中存在目标之间相互遮挡、复杂背景干扰、头盔目标小等问题,现有方法尚不能满足复杂场景下电动车头盔检... 佩戴电动车头盔是安全骑行的重要保障,对电动车驾乘人员佩戴头盔进行有效检测在保障驾乘人员安全方面具有重要意义。电动车头盔检测中存在目标之间相互遮挡、复杂背景干扰、头盔目标小等问题,现有方法尚不能满足复杂场景下电动车头盔检测的要求,因此,提出一种改进YOLOv5的复杂场景电动车头盔识别方法。首先,提出一种新的主干网络结构ML-CSPDarknet53,增强网络的特征提取能力,引入轻量级上采样算子CARAFE,利用特征图语义信息扩大感受野;其次,搭建坐标卷积CoordConv模块,增强网络对空间信息的感知能力,并将WIoU v3作为边界框损失函数,降低低质量样本对模型性能的不利影响;最后,构建了内容丰富的头盔检测数据集对改进算法进行验证。实验结果表明,改进后算法相较于原算法在精确度、召回率、mAP@0.5、mAP@0.5:0.95上分别提升了2.9%、3.0%、3.4%和2.2%,并且性能优于其他主流检测算法,满足复杂道路交通场景下电动车驾乘人员头盔检测的任务要求。 展开更多
关键词 头盔检测 改进YOLOv5 复杂场景 目标遮挡 特征提取 上采样 坐标卷积 损失函数
在线阅读 下载PDF
基于CrossFormer的自动驾驶车辆周边行人轨迹预测 被引量:1
14
作者 曹瑞阳 李诗雨 +1 位作者 刘擎超 丁延超 《江苏大学学报(自然科学版)》 北大核心 2025年第3期276-283,308,共9页
在自动驾驶车辆周边行人轨迹预测中,针对现有方法在长时预测任务中表现不足,尤其是对复杂场景适应性较低的问题,提出了一种新方法.给出了行人轨迹预测问题建模流程,构建了基于CrossFormer的行人轨迹预测方法.新方法通过维度分段嵌入技... 在自动驾驶车辆周边行人轨迹预测中,针对现有方法在长时预测任务中表现不足,尤其是对复杂场景适应性较低的问题,提出了一种新方法.给出了行人轨迹预测问题建模流程,构建了基于CrossFormer的行人轨迹预测方法.新方法通过维度分段嵌入技术显式学习相邻时间帧的相关性;结合两阶段注意力机制层,充分学习行人轨迹的长时依赖关系;利用分层编码器-解码器结构,自适应地捕获行人轨迹在不同时间尺度上的依赖性,提高模型在长时预测上的可扩展性.新方法创新性地结合了多模态信息融合、自注意力机制和可扩展性优化,实现了对行人轨迹预测任务的高效解决.在ETH轨迹数据、江苏大学校园内行人轨迹数据(JDD)这两个数据集完成了试验,进行了时间序列的分割性分析以及定量、定性分析.结果表明,在ETH数据集上,新方法的平均位移误差ADE、最终位移误差FDE值分别为0.627、1.32,均显著优于传统方法如LSTM(0.895、1.74)和SR-LSTM(0.728、1.66)等;在JDD数据集上,新方法的ADE、FDE值分别为0.281、0.53,远优于GAN(0.562、1.01)、STGAT(0.673、1.43)等模型;新方法在复杂场景下的鲁棒性和泛化能力也得到了验证. 展开更多
关键词 自动驾驶 行人轨迹预测 CrossFormer TRANSFORMER 注意力机制 深度学习 复杂场景分析 多模态数据融合 预测精度
在线阅读 下载PDF
面向交通标志检测的DSA-YOLOv8算法
15
作者 周新翔 王可庆 +2 位作者 周翔 张强 薛国强 《计算机工程与设计》 北大核心 2025年第8期2320-2327,共8页
针对交通标志检测存在精度欠佳及模型复杂度高的问题,提出了一种基于YOLOv8的轻量化交通标志检测模型。引入动态蛇形卷积模块,并结合其思想改进C2f模块,增强模型在复杂背景下的特征提取能力。通过优化小目标检测层,改善小目标检测精度... 针对交通标志检测存在精度欠佳及模型复杂度高的问题,提出了一种基于YOLOv8的轻量化交通标志检测模型。引入动态蛇形卷积模块,并结合其思想改进C2f模块,增强模型在复杂背景下的特征提取能力。通过优化小目标检测层,改善小目标检测精度并有效降低模型参数量。利用AFCA(adaptive fine-grained channel)注意力机制改造空间金字塔池化层,实现特征权重的动态调整。实验结果表明,在CCTSDB-2021交通标志数据集上,改进的模型在精确率、召回率和mAP_(50)方面较原始模型分别提升了1.8%、7.1%和7.6%,参数量和模型大小分别减少了50.53%、45.64%,展现出较高的实用价值。 展开更多
关键词 交通标志检测 YOLOv8 小目标 复杂场景 卷积神经网络 特征信息 动态蛇形卷积
在线阅读 下载PDF
基于YOLO-NPDL的复杂交通场景检测方法 被引量:1
16
作者 张浩晨 张竹林 +3 位作者 史瑞岩 曹士杰 王文翰 雷镇诺 《山东交通学院学报》 2025年第2期34-47,共14页
为提高复杂交通场景下车辆目标检测模型的检测精度,以YOLOv8n(you only look once version 8 nano)为基准模型,设计具有复合主干的Neck-ARW(包括辅助检测分支、RepBlock模块、加权跳跃特征连接)颈部结构,减少信息瓶颈造成沿网络深度方... 为提高复杂交通场景下车辆目标检测模型的检测精度,以YOLOv8n(you only look once version 8 nano)为基准模型,设计具有复合主干的Neck-ARW(包括辅助检测分支、RepBlock模块、加权跳跃特征连接)颈部结构,减少信息瓶颈造成沿网络深度方向的信息丢失;引入RepBlock结构重参数化模块,在训练过程中采用多分支结构提高模型特征提取性能;添加P2检测层捕捉更多小目标细节特征,丰富网络内小目标的特征信息流;采用Dynamic Head自注意力机制检测头,将尺度感知、空间感知和任务感知自注意力机制融合到统一框架中,提高检测性能;采用基于层自适应幅度的剪枝(layer-adaptive magnitude based pruning,LAMP)算法,移除模型的冗余参数,构建YOLO-NPDL(Neck-ARW,P2,Dynamic Head,LAMP)车辆目标检测模型。以UA-DETRAC(university at Albany detection and tracking)数据集为试验数据集,分别进行RepBlock模块嵌入位置试验、不同颈部结构对比试验、剪枝试验、消融试验、模型性能对比试验,验证YOLO-NPDL模型的平均精度均值。试验结果表明:RepBlock模块同时嵌入辅助检测分支和颈部主干结构时对多尺度目标的特征提取能力更优,在训练过程中可保留更多的细节信息,但参数量和计算量均增大;采用Neck-ARW颈部结构后模型的平均精度均值E mAP50、E mAP50-95分别提高1.1%、1.7%,参数量减小约17.9%,结构较优;剪枝率为1.3时,模型参数量、计算量分别减小约38.0%、24.0%,冗余通道占比较少,结构较紧凑;与YOLOv8n模型相比,YOLO-NPDL模型在参数量基本相同的基础上,召回率增大2.7%,E mAP50增大2.7%,达到94.7%,E mAP50-95增大6.4%,达到79.7%;与目前广泛使用的YOLO系列模型相比,YOLO-NPDL模型在较少参数量的基础上,检测精度较高。YOLO-NPDL模型在检测远端目标、雨天及夜景等实际复杂交通情景中无明显误检、漏检情况,可检测到更多的远端小目标车辆,检测效果更优。 展开更多
关键词 目标检测 复杂交通场景 YOLOv8n Neck-ARW RepBlock LAMP算法
在线阅读 下载PDF
复杂场景下红外探测系统性能分析与建模 被引量:1
17
作者 肖文健 王彦斌 +2 位作者 蒋成龙 周旋风 张德锋 《红外技术》 北大核心 2025年第1期29-35,43,共8页
仿真建模在红外探测系统性能设计、试验鉴定或效能推演等领域具有广泛的应用前景。为了满足复杂作战场景下红外探测系统性能仿真建模的迫切需求,在传统红外探测系统几何成像模型的基础上进一步分析了红外探测器阵列结构、采样效率、图... 仿真建模在红外探测系统性能设计、试验鉴定或效能推演等领域具有广泛的应用前景。为了满足复杂作战场景下红外探测系统性能仿真建模的迫切需求,在传统红外探测系统几何成像模型的基础上进一步分析了红外探测器阵列结构、采样效率、图像模糊等因素对探测的影响,另外还对复杂作战场景中自然杂波和激光压制以及假目标欺骗等人为干扰对于红外探测性能的影响进行了深入分析,并将这些影响因素引入红外探测系统的性能建模中,建立了一个能够适用于复杂作战场景的红外探测系统性能仿真推演的数学模型并将其集成于仿真推演系统中。仿真推演实例表明,该模型能够在复杂作战场景中逼真模拟红外探测系统的性能特征,对红外探测系统设计、性能评估以及使用效能仿真推演具有应用价值。 展开更多
关键词 红外探测 仿真建模 复杂场景 干扰因素
在线阅读 下载PDF
复杂场景下多光谱特征融合的航拍车辆检测
18
作者 赵子杰 沈诗淇 +3 位作者 应展烽 李科廷 李瑞星 唐世玮 《兵工学报》 北大核心 2025年第S1期271-279,共9页
针对无人机航拍车辆目标检测中存在的多光谱特征失配、复杂场景干扰以及检测精度不足等问题,提出一种基于YOLOv10的多特征空间联合优化网络——多尺度门控融合网络(Multi-Scale Gated Fusion Network,MSGF-Net)。该网络通过双流特征提... 针对无人机航拍车辆目标检测中存在的多光谱特征失配、复杂场景干扰以及检测精度不足等问题,提出一种基于YOLOv10的多特征空间联合优化网络——多尺度门控融合网络(Multi-Scale Gated Fusion Network,MSGF-Net)。该网络通过双流特征提取并在主干引入门控局部-全局融合模块,实现可见光与红外特征在多特征空间中的有效交互与联合优化,缓解特征失配带来的影响并增强特征表达。在特征金字塔网络后,引入跨模态嵌入模块,逐像素加权融合多特征空间信息,进一步提升不同光谱特征间的互补性。在公开数据集DroneVehicle上的实验结果表明:MSGF-Net的mAP 0.5和mAP 0.5:0.95分别达到83.4%和63.9%,相较于单通道模型YOLOv10n有显著提升,且相比于C 2 Former和TSDADet等代表性的多模态融合算法提升超过9个百分点,结果有力地证明了模型在低光、雾天、遮挡等复杂场景下检测具有更优的鲁棒性和准确性。 展开更多
关键词 计算机视觉 多光谱特征融合 YOLOv10 复杂场景 目标检测
在线阅读 下载PDF
改进RT-DETR的小目标检测方法研究
19
作者 程鑫淼 张雪松 +1 位作者 曹冰洁 宋存利 《计算机工程与应用》 北大核心 2025年第15期144-155,共12页
针对复杂场景小目标检测中存在的背景干扰严重、特征表达能力不足等问题,提出了一种基于改进RT-DETR的小目标检测模型DA-DETR。在骨干网络中引入了一种多阶门控聚合模块(multi-order gated aggregation block),通过增强局部与全局特征... 针对复杂场景小目标检测中存在的背景干扰严重、特征表达能力不足等问题,提出了一种基于改进RT-DETR的小目标检测模型DA-DETR。在骨干网络中引入了一种多阶门控聚合模块(multi-order gated aggregation block),通过增强局部与全局特征的差异性使目标检测器能更好地区分前景物体和嘈杂背景。引入了卷积加性标记混合器(convolutional additive token mixer,CATM),进一步减少了特征丢失,提升了模型的全局与局部信息整合能力。提出了一种改进的损失函数CoreProximity-IoU,其对于小目标检测的IoU变化更敏感。实验结果表明,DA-DETR模型在VisDrone2019数据集上的mAP@50和mAP@50:95分别提升了2.8和2.3个百分点,在KITTI数据集上的mAP@50和mAP@50:95分别比RT-DETR提升了0.6和0.4个百分点。此外,模型计算量和参数量均有显著的减少,进一步验证了所提出方法的有效性和优越性。 展开更多
关键词 小目标检测 RT-DETR 复杂场景 背景干扰
在线阅读 下载PDF
复杂场景激光图像目标特征轮廓模糊分割方法
20
作者 杨佳义 陈勇 王勇 《激光杂志》 北大核心 2025年第9期100-104,共5页
在复杂场景中,激光图像会受到多种背景因素的干扰,如杂乱的背景、遮挡物、不均匀的光照等,降低了目标轮廓的清晰度,因此,提出一种复杂场景激光图像目标特征轮廓模糊分割方法。通过主成分分析法简化数据维度,保留主要特征,得到关键特征点... 在复杂场景中,激光图像会受到多种背景因素的干扰,如杂乱的背景、遮挡物、不均匀的光照等,降低了目标轮廓的清晰度,因此,提出一种复杂场景激光图像目标特征轮廓模糊分割方法。通过主成分分析法简化数据维度,保留主要特征,得到关键特征点,通过模糊C均值算法实现目标轮廓关键特征的有效聚类,考虑轮廓的数模和幅角,将目标轮廓划分为清晰的区域,实现目标对象的准确识别和分割。实验结果表明,模糊分割方法能够精准分割出复杂场景下的目标轮廓,IoU值最大为0.98。 展开更多
关键词 复杂场景 激光图像 目标特征轮廓 模糊分割 边缘检测
原文传递
上一页 1 2 17 下一页 到第
使用帮助 返回顶部