期刊文献+
共找到1,943篇文章
< 1 2 98 >
每页显示 20 50 100
Low-light image enhancement based on multi-illumination estimation and multi-scale fusion
1
作者 ZHANG Xin'ai GAO Jing +1 位作者 NIE Kaiming LUO Tao 《Optoelectronics Letters》 2025年第6期362-369,共8页
To improve image quality under low illumination conditions,a novel low-light image enhancement method is proposed in this paper based on multi-illumination estimation and multi-scale fusion(MIMS).Firstly,the illuminat... To improve image quality under low illumination conditions,a novel low-light image enhancement method is proposed in this paper based on multi-illumination estimation and multi-scale fusion(MIMS).Firstly,the illumination is processed by contrast-limited adaptive histogram equalization(CLAHE),adaptive complementary gamma function(ACG),and adaptive detail preserving S-curve(ADPS),respectively,to obtain three components.Then,the fusion-relevant features,exposure,and color contrast are selected as the weight maps.Subsequently,these components and weight maps are fused through multi-scale to generate enhanced illumination.Finally,the enhanced images are obtained by multiplying the enhanced illumination and reflectance.Compared with existing approaches,this proposed method achieves an average increase of 0.81%and 2.89%in the structural similarity index measurement(SSIM)and peak signal-to-noise ratio(PSNR),and a decrease of 6.17%and 32.61%in the natural image quality evaluator(NIQE)and gradient magnitude similarity deviation(GMSD),respectively. 展开更多
关键词 adaptive detail preserving s curve contrast limited adaptive histogram equalization adaptive complementary gamma function low light image enhancement equalization clahe adaptive complementary gamma function acg multi scale fusion weight maps multi illumination estimation
原文传递
Multi-scale feature fusion optical remote sensing target detection method 被引量:1
2
作者 BAI Liang DING Xuewen +1 位作者 LIU Ying CHANG Limei 《Optoelectronics Letters》 2025年第4期226-233,共8页
An improved model based on you only look once version 8(YOLOv8)is proposed to solve the problem of low detection accuracy due to the diversity of object sizes in optical remote sensing images.Firstly,the feature pyram... An improved model based on you only look once version 8(YOLOv8)is proposed to solve the problem of low detection accuracy due to the diversity of object sizes in optical remote sensing images.Firstly,the feature pyramid network(FPN)structure of the original YOLOv8 mode is replaced by the generalized-FPN(GFPN)structure in GiraffeDet to realize the"cross-layer"and"cross-scale"adaptive feature fusion,to enrich the semantic information and spatial information on the feature map to improve the target detection ability of the model.Secondly,a pyramid-pool module of multi atrous spatial pyramid pooling(MASPP)is designed by using the idea of atrous convolution and feature pyramid structure to extract multi-scale features,so as to improve the processing ability of the model for multi-scale objects.The experimental results show that the detection accuracy of the improved YOLOv8 model on DIOR dataset is 92%and mean average precision(mAP)is 87.9%,respectively 3.5%and 1.7%higher than those of the original model.It is proved the detection and classification ability of the proposed model on multi-dimensional optical remote sensing target has been improved. 展开更多
关键词 multi scale feature fusion optical remote sensing feature map improve target detection ability optical remote sensing imagesfirstlythe target detection feature fusionto enrich semantic information spatial information
原文传递
An infrared and visible image fusion method based upon multi-scale and top-hat transforms 被引量:1
3
作者 Gui-Qing He Qi-Qi Zhang +3 位作者 Hai-Xi Zhang Jia-Qi Ji Dan-Dan Dong Jun Wang 《Chinese Physics B》 SCIE EI CAS CSCD 2018年第11期340-348,共9页
The high-frequency components in the traditional multi-scale transform method are approximately sparse, which can represent different information of the details. But in the low-frequency component, the coefficients ar... The high-frequency components in the traditional multi-scale transform method are approximately sparse, which can represent different information of the details. But in the low-frequency component, the coefficients around the zero value are very few, so we cannot sparsely represent low-frequency image information. The low-frequency component contains the main energy of the image and depicts the profile of the image. Direct fusion of the low-frequency component will not be conducive to obtain highly accurate fusion result. Therefore, this paper presents an infrared and visible image fusion method combining the multi-scale and top-hat transforms. On one hand, the new top-hat-transform can effectively extract the salient features of the low-frequency component. On the other hand, the multi-scale transform can extract highfrequency detailed information in multiple scales and from diverse directions. The combination of the two methods is conducive to the acquisition of more characteristics and more accurate fusion results. Among them, for the low-frequency component, a new type of top-hat transform is used to extract low-frequency features, and then different fusion rules are applied to fuse the low-frequency features and low-frequency background; for high-frequency components, the product of characteristics method is used to integrate the detailed information in high-frequency. Experimental results show that the proposed algorithm can obtain more detailed information and clearer infrared target fusion results than the traditional multiscale transform methods. Compared with the state-of-the-art fusion methods based on sparse representation, the proposed algorithm is simple and efficacious, and the time consumption is significantly reduced. 展开更多
关键词 infrared and visible image fusion multi-scale transform mathematical morphology top-hat trans- form
原文传递
A Lightweight Convolutional Neural Network with Hierarchical Multi-Scale Feature Fusion for Image Classification 被引量:2
4
作者 Adama Dembele Ronald Waweru Mwangi Ananda Omutokoh Kube 《Journal of Computer and Communications》 2024年第2期173-200,共28页
Convolutional neural networks (CNNs) are widely used in image classification tasks, but their increasing model size and computation make them challenging to implement on embedded systems with constrained hardware reso... Convolutional neural networks (CNNs) are widely used in image classification tasks, but their increasing model size and computation make them challenging to implement on embedded systems with constrained hardware resources. To address this issue, the MobileNetV1 network was developed, which employs depthwise convolution to reduce network complexity. MobileNetV1 employs a stride of 2 in several convolutional layers to decrease the spatial resolution of feature maps, thereby lowering computational costs. However, this stride setting can lead to a loss of spatial information, particularly affecting the detection and representation of smaller objects or finer details in images. To maintain the trade-off between complexity and model performance, a lightweight convolutional neural network with hierarchical multi-scale feature fusion based on the MobileNetV1 network is proposed. The network consists of two main subnetworks. The first subnetwork uses a depthwise dilated separable convolution (DDSC) layer to learn imaging features with fewer parameters, which results in a lightweight and computationally inexpensive network. Furthermore, depthwise dilated convolution in DDSC layer effectively expands the field of view of filters, allowing them to incorporate a larger context. The second subnetwork is a hierarchical multi-scale feature fusion (HMFF) module that uses parallel multi-resolution branches architecture to process the input feature map in order to extract the multi-scale feature information of the input image. Experimental results on the CIFAR-10, Malaria, and KvasirV1 datasets demonstrate that the proposed method is efficient, reducing the network parameters and computational cost by 65.02% and 39.78%, respectively, while maintaining the network performance compared to the MobileNetV1 baseline. 展开更多
关键词 MobileNet Image Classification Lightweight Convolutional Neural Network Depthwise Dilated Separable Convolution Hierarchical multi-scale Feature fusion
在线阅读 下载PDF
Multi-source Remote Sensing Image Registration Based on Contourlet Transform and Multiple Feature Fusion 被引量:6
5
作者 Huan Liu Gen-Fu Xiao +1 位作者 Yun-Lan Tan Chun-Juan Ouyang 《International Journal of Automation and computing》 EI CSCD 2019年第5期575-588,共14页
Image registration is an indispensable component in multi-source remote sensing image processing. In this paper, we put forward a remote sensing image registration method by including an improved multi-scale and multi... Image registration is an indispensable component in multi-source remote sensing image processing. In this paper, we put forward a remote sensing image registration method by including an improved multi-scale and multi-direction Harris algorithm and a novel compound feature. Multi-scale circle Gaussian combined invariant moments and multi-direction gray level co-occurrence matrix are extracted as features for image matching. The proposed algorithm is evaluated on numerous multi-source remote sensor images with noise and illumination changes. Extensive experimental studies prove that our proposed method is capable of receiving stable and even distribution of key points as well as obtaining robust and accurate correspondence matches. It is a promising scheme in multi-source remote sensing image registration. 展开更多
关键词 Feature fusion multi-scale circle Gaussian combined invariant MOMENT multi-direction GRAY level CO-OCCURRENCE matrix multi-SOURCE remote sensing image registration CONTOURLET transform
原文传递
基于YOLO-BioFusion的血细胞检测模型
6
作者 张傲 刘微 +2 位作者 刘阳 杨思瑶 管勇 《电子测量技术》 北大核心 2025年第18期177-188,共12页
血细胞检测是临床诊断中的重要任务,尤其在面对细胞类型多样、尺寸差异显著、目标重叠频繁以及复杂背景时,现有检测模型的精度和鲁棒性仍面临挑战。为解决这些问题,本文提出了一种改进的YOLOv8目标检测模型——YOLO-BioFusion。该模型... 血细胞检测是临床诊断中的重要任务,尤其在面对细胞类型多样、尺寸差异显著、目标重叠频繁以及复杂背景时,现有检测模型的精度和鲁棒性仍面临挑战。为解决这些问题,本文提出了一种改进的YOLOv8目标检测模型——YOLO-BioFusion。该模型通过引入ACFN模块,提高了对细小目标和重叠目标的检测能力;应用C2f-DPE和SPPF-LSK模块增强了多尺度特征的融合与提取,提升了模型的鲁棒性和泛化能力;同时,采用Inner-CIoU损失函数加速了模型收敛并提高了定位精度。实验结果表明,在BCCD数据集上,YOLO-BioFusion的mAP@0.5为94.0%,mAP@0.5:0.95为65.2%,分别较YOLOv8-n提高了1.9%和3.2%。与此同时,计算成本仅为6.8 GFLOPs,展示了其在资源受限环境中的应用潜力。该研究为复杂背景下的血细胞检测提供了一种高效且精确的解决方案。 展开更多
关键词 血细胞检测 多尺度特征融合 损失函数优化 YOLOv8 重叠目标
原文传递
融合Multi-scale CNN和Bi-LSTM的人脸表情识别研究 被引量:3
7
作者 李军 李明 《北京联合大学学报》 CAS 2021年第1期35-39,44,共6页
为了有效改善现有人脸表情识别模型中存在信息丢失严重、特征信息之间联系不密切的问题,提出一种融合多尺度卷积神经网络(Multi-scale CNN)和双向长短期记忆(Bi-LSTM)的模型。Bi-LSTM可以增强特征信息间的联系与信息的维持,在Multi-scal... 为了有效改善现有人脸表情识别模型中存在信息丢失严重、特征信息之间联系不密切的问题,提出一种融合多尺度卷积神经网络(Multi-scale CNN)和双向长短期记忆(Bi-LSTM)的模型。Bi-LSTM可以增强特征信息间的联系与信息的维持,在Multi-scale CNN中通过不同尺度的卷积核可以提取到更加丰富的特征信息,并通过加入批标准化(BN)层与特征融合处理,从而加快网络的收敛速度,有利于特征信息的重利用,再将两者提取到的特征信息进行融合,最后将改进的正则化方法应用到目标函数中,减小网络复杂度和过拟合。在JAFFE和FER-2013公开数据集上进行实验,准确率分别达到了95.455%和74.115%,由此证明所提算法的有效性和先进性。 展开更多
关键词 多尺度卷积神经网络 双向长短期记忆 特征融合 批标准化层 正则化
在线阅读 下载PDF
DS-TransFusion:基于改进Swin Transformer的视网膜血管自动分割 被引量:2
8
作者 杨本臣 王建宇 金海波 《工程科学学报》 EI CSCD 北大核心 2024年第10期1889-1898,共10页
视网膜血管的准确分割在辅助筛查各种疾病方面具有重大意义.然而,当前流行的模型仍存在细小血管的分割不清晰,以及眼底血管分支末端与背景的对比度较低等问题.针对这些问题,本文提出了一种全新的视网膜血管分割模型,命名为Dual Swin Tra... 视网膜血管的准确分割在辅助筛查各种疾病方面具有重大意义.然而,当前流行的模型仍存在细小血管的分割不清晰,以及眼底血管分支末端与背景的对比度较低等问题.针对这些问题,本文提出了一种全新的视网膜血管分割模型,命名为Dual Swin Transformer Fusion(DS-TransFusion).首先,DS-TransFusion采用基于Swin Transformer的双尺度编码器子网络,以提取视网膜血管的粗粒度和细粒度特征.其次,在跳跃连接处引入了Transformer交互融合注意力(TIFA)模块,用于丰富跨视图上下文建模和语义依赖,同时捕获来自不同图像视图的数据之间的长期相关性.最后,在编码器和解码器之间,DS-TransFusion采用了多尺度注意力(MA),用于收集多尺度特征表示的全局对应关系,进一步优化模型的分割效果.实验结果表明,DS-TransFusion在公共数据集STARE、CHASEDB1和DRIVE上表现出色,准确率分别达到了96.50%、97.22%和97.80%,灵敏度达到84.10%、84.55%和83.17%.实验表明DS-TransFusion能有效提高视网膜血管分割的精度,准确分割出细小血管.对视网膜血管分割的准确度、灵敏度和特异性都有大幅提高,与现有的SOTA方法相比具有更好的分割性能. 展开更多
关键词 视网膜血管分割 眼底图像 多尺度注意力 特征融合 Swin TRANSFORMER
在线阅读 下载PDF
基于改进Res2Net与迁移学习的水果图像分类 被引量:3
9
作者 吴迪 肖衍 +2 位作者 沈学军 万琴 陈子涵 《电子科技大学学报》 北大核心 2025年第1期62-71,共10页
针对传统水果图像分类算法特征学习能力弱和细粒度特征信息表示不强的缺点,提出一种基于改进Res2Net与迁移学习的水果图像分类算法。首先,针对网络结构,在Res2Net的残差单元中引入动态多尺度融合注意力模块,对各种尺寸的图像动态地生成... 针对传统水果图像分类算法特征学习能力弱和细粒度特征信息表示不强的缺点,提出一种基于改进Res2Net与迁移学习的水果图像分类算法。首先,针对网络结构,在Res2Net的残差单元中引入动态多尺度融合注意力模块,对各种尺寸的图像动态地生成卷积核,利用meta-ACON激活函数优化ReLU激活函数,动态学习激活函数的线性和非线性,自适应选择是否激活神经元;其次,采用基于模型迁移的训练方式进一步提升分类的效率与鲁棒性。实验结果表明,该算法在Fruit-Dataset和Fruits-360数据集上的测试准确率相比Res2Net提升了1.2%和1.0%,召回率相比Res2Net提升了1.13%和0.89%,有效提升了水果图像分类性能。 展开更多
关键词 图像分类 Res2Net 动态多尺度融合注意力 激活函数 迁移学习
在线阅读 下载PDF
Lumbar spine localisation method based on feature fusion
10
作者 Yonghong Zhang Ning Hu +7 位作者 Zhuofu Li Xuquan Ji Shanshan Liu Youyang Sha Xiongkang Song Jian Zhang Lei Hu Weishi Li 《CAAI Transactions on Intelligence Technology》 SCIE EI 2023年第3期931-945,共15页
To eliminate unnecessary background information,such as soft tissues in original CT images and the adverse impact of the similarity of adjacent spines on lumbar image segmentation and surgical path planning,a two‐sta... To eliminate unnecessary background information,such as soft tissues in original CT images and the adverse impact of the similarity of adjacent spines on lumbar image segmentation and surgical path planning,a two‐stage approach for localising lumbar segments is proposed.First,based on the multi‐scale feature fusion technology,a non‐linear regression method is used to achieve accurate localisation of the overall spatial region of the lumbar spine,effectively eliminating useless background information,such as soft tissues.In the second stage,we directly realised the precise positioning of each segment in the lumbar spine space region based on the non‐linear regression method,thus effectively eliminating the interference caused by the adjacent spine.The 3D Intersection over Union(3D_IOU)is used as the main evaluation indicator for the positioning accuracy.On an open dataset,3D_IOU values of 0.8339�0.0990 and 0.8559�0.0332 in the first and second stages,respectively is achieved.In addition,the average time required for the proposed method in the two stages is 0.3274 and 0.2105 s respectively.Therefore,the proposed method performs very well in terms of both pre-cision and speed and can effectively improve the accuracy of lumbar image segmentation and the effect of surgical path planning. 展开更多
关键词 CT image lumbar spatial orientation multiscale information fusion
在线阅读 下载PDF
基于卷积神经网络的轻量高效图像隐写 被引量:3
11
作者 段新涛 白鹿伟 +4 位作者 徐凯欧 张萌 保梦茹 武银行 秦川 《应用科学学报》 北大核心 2025年第1期80-93,共14页
基于深度学习的图像隐写方法,因存在模型参数量和计算量大等问题,而面临高参数和计算负载的挑战,为此提出了一种轻量高效的图像隐写方法。首先在编码器和解码器中引入Ghost模块,降低了编码器和解码器的参数量和计算量。其次提出了一个... 基于深度学习的图像隐写方法,因存在模型参数量和计算量大等问题,而面临高参数和计算负载的挑战,为此提出了一种轻量高效的图像隐写方法。首先在编码器和解码器中引入Ghost模块,降低了编码器和解码器的参数量和计算量。其次提出了一个多尺度特征融合模块,用以捕捉多维数据中的复杂关系。最后提出了一个新颖的混合损失函数,可在保持模型不变的情况下提升图像隐写质量。实验结果表明,所提方法在256×256像素的图像上峰值信噪比达到47.59 dB。与目前最优的图像隐写方法相比,所提方法的隐写质量提升1.7 dB,参数量减少77%,计算量减少91%,在隐写质量上有较优的表现,同时模型的参数量和计算量大大降低,实现了模型的轻量高效化。 展开更多
关键词 图像隐写 深度学习 多尺度特征融合 混合损失函数
在线阅读 下载PDF
改进YOLOv8的无人机航拍小目标检测算法 被引量:2
12
作者 许景科 索祥龙 周磊 《计算机工程与应用》 北大核心 2025年第11期119-131,共13页
在无人机航拍图像目标检测任务中,存在小目标多且分布密集,目标背景复杂,类别样本数量不平衡,无人机算力偏低等问题。为此提出一种改进YOLOv8的算法MFF-YOLOv8(multi-feature fusion YOLOv8)。在C2f模块的Bottleneck模块中融合可变形卷... 在无人机航拍图像目标检测任务中,存在小目标多且分布密集,目标背景复杂,类别样本数量不平衡,无人机算力偏低等问题。为此提出一种改进YOLOv8的算法MFF-YOLOv8(multi-feature fusion YOLOv8)。在C2f模块的Bottleneck模块中融合可变形卷积DCNv3(deformable convolution v3),增强模型主干部分的特征提取能力。设计了一种新的MFFPN(multi-feature fusion pyramid network)特征融合网络结构,增加更多特征融合路线,保留更多的底层特征图细节和特征,提高模型对小目标的检测能力。增加P2小目标检测层并优化原有的P5检测层,增强了对小目标的检测精度并降低参数量。最后,引入动态头Dyhead(dynamic head)进一步增强模型的检测精度,在Visdrone2019公共数据集的实验中,MFF-YOLOv8s算法的检测精度mAP50和mAP50:95相比YOLOv8s分别提高10.2个百分点和7.1个百分点,参数量降低77.04%,检测精度超越YOLOv11,满足了无人机平台对精度和轻量化的需求。 展开更多
关键词 YOLOv8 小目标检测 多尺度特征融合 轻量化
在线阅读 下载PDF
隐式多尺度对齐与交互的文本-图像行人重识别方法 被引量:1
13
作者 孙锐 杜云 +1 位作者 陈龙 张旭东 《软件学报》 北大核心 2025年第10期4846-4863,共18页
文本-图像行人重识别旨在使用文本描述检索图像库中的目标行人,该技术的主要挑战在于将图像和文本特征嵌入到共同的潜在空间中以实现跨模态对齐.现有的许多工作尝试利用单独预训练的单峰模型来提取视觉和文本特征,再利用切分或者注意力... 文本-图像行人重识别旨在使用文本描述检索图像库中的目标行人,该技术的主要挑战在于将图像和文本特征嵌入到共同的潜在空间中以实现跨模态对齐.现有的许多工作尝试利用单独预训练的单峰模型来提取视觉和文本特征,再利用切分或者注意力机制来获得显式的跨模态对齐.然而,这些显式对齐方法通常缺乏有效匹配多模态特征所需的底层对齐能力,并且使用预设的跨模态对应关系来实现显式对齐可能会导致模态内信息失真.提出了一种隐式多尺度对齐与交互的文本-图像行人重识别方法.首先利用语义一致特征金字塔网络提取图像的多尺度特征,并使用注意力权重融合包含全局和局部信息的不同尺度特征.其次,利用多元交互注意机制学习图像和文本之间的关联.该机制可以有效地捕捉到不同视觉特征和文本信息之间的对应关系,缩小模态间差距,实现隐式多尺度语义对齐.此外,利用前景增强判别器来增强目标行人,提取更纯洁的行人特征,有助于缓解图像与文本之间的信息不平等.在3个主流的文本-图像行人重识别数据集CUHK-PEDES、ICFG-PEDES及RSTPReid上的实验结果表明,所提方法有效提升了跨模态检索性能,比SOTA算法的Rank-1高出2%–9%. 展开更多
关键词 文本-图像行人重识别 隐式对齐 多尺度融合 多元交互注意力 语义对齐
在线阅读 下载PDF
基于改进YOLOv8n的再造烟叶原料缺陷检测方法研究 被引量:1
14
作者 刘雄斌 刘志昌 +5 位作者 胡念武 姚建武 陈一桢 唐天明 王晚霞 陈寒 《包装与食品机械》 北大核心 2025年第3期88-95,共8页
针对稠浆法再造烟叶生产中,原料表面缺陷检测存在的多尺度表征能力不足与检测效率低等问题,提出一种基于改进YOLOv8n架构的智能检测网络。通过设计CSP-SDCV模块替代原始C2f模块,以优化特征提取效率,引入ADown模块增强多尺度特征表征能力... 针对稠浆法再造烟叶生产中,原料表面缺陷检测存在的多尺度表征能力不足与检测效率低等问题,提出一种基于改进YOLOv8n架构的智能检测网络。通过设计CSP-SDCV模块替代原始C2f模块,以优化特征提取效率,引入ADown模块增强多尺度特征表征能力,采用轻量化共享卷积检测头降低参数冗余,并结合局部窗口注意力机制强化遮挡目标的边界敏感性。试验结果表明,改进模型在烟叶缺陷数据集上的m AP@50达到98.1%,较基准模型YOLOv8n提升1.8个百分点,参数量与计算量分别减少54.4%,50.6%。研究为烟草工业自动化质检提供高精度、低资源消耗的解决方案。 展开更多
关键词 烟叶缺陷检测 多尺度特征融合 轻量化检测头 局部窗口注意力 YOLOv8n
在线阅读 下载PDF
MC-Res2UNet网络在盐体识别中的应用 被引量:1
15
作者 王新 张傲 +1 位作者 张薇 陈同俊 《石油地球物理勘探》 北大核心 2025年第1期21-29,共9页
精确识别埋藏在地表下的盐体对于石油和天然气勘探有重大意义。传统的语义分割算法依然存在对盐体的识别精度较低、边缘识别效果较差、识别效率低等问题。文中提出一种基于MC-Res2UNet网络的盐体识别方法,该网络整体架构由U-Net网络改... 精确识别埋藏在地表下的盐体对于石油和天然气勘探有重大意义。传统的语义分割算法依然存在对盐体的识别精度较低、边缘识别效果较差、识别效率低等问题。文中提出一种基于MC-Res2UNet网络的盐体识别方法,该网络整体架构由U-Net网络改进。首先,使用Res2Net网络作为编码器提取盐体特征信息;然后,在解码层中的卷积之后引入CBAM注意力模块重新分配盐体空间信息和通道信息,抑制不重要的信息;最后,利用多尺度特征融合模块融合空间信息和语义信息,提高盐体识别精度。将文中提出的MC-Res2UNet模型用于TGS盐体数据集进行验证,像素准确率可达到96.6%,交并比可达到86.8%,优于传统的DeepLabV3+、DANet等语义分割方法,对地下盐体有更好的识别效果。 展开更多
关键词 盐体识别 U-Net 多尺度特征融合 注意力机制
在线阅读 下载PDF
DPRT-YOLO:智能网联汽车复杂驾驶环境实时目标检测器 被引量:1
16
作者 董一兵 曾辉 +2 位作者 李建科 侯少杰 石磊 《计算机工程与应用》 北大核心 2025年第14期148-162,共15页
目标检测是智能网联汽车视觉感知系统的一项基本任务,可为先进驾驶辅助系统提供基础数据和决策依据。然而,在低光照和恶劣天气等复杂环境中,车载目标检测算法面临小目标检测性能不佳、漏检率和误检率偏高的挑战。针对这一挑战,发展了一... 目标检测是智能网联汽车视觉感知系统的一项基本任务,可为先进驾驶辅助系统提供基础数据和决策依据。然而,在低光照和恶劣天气等复杂环境中,车载目标检测算法面临小目标检测性能不佳、漏检率和误检率偏高的挑战。针对这一挑战,发展了一种面向智能网联汽车的实时目标检测器(DPRT-YOLO),通过对流行的YOLOv10模型进行改造,使其更加适用于复杂驾驶环境中的目标检测任务,并通过在NVIDIA边缘计算平台上开展消融和对比实验,验证了算法的有效性。设计了增强加权多分支特征融合网络(EWMFFN),引入浅层加权融合和多分支加权融合模块,消除特征融合过程中的层间干扰,设计星形拓扑特征交互结构,提升模型对小尺度目标的检测能力,同时保持了网络结构的轻量化设计。融合卷积门控线性单元(convolutional gated linear units,CGLU)与卷积加法自注意力(convolutional additive token mixer,CATM),通过局部-全局双通路机制建立小目标尺度信息的长期上下文关系并保持模型的轻量化。为了评估模型在真实算力场景中的检测性能,将其部署在NVIDIA Jetson Xavier Nx平台上,采用NVIDIA TensorRT FP16量化加速,在BDD100K和TT100K测试集上开展推理实验,并与基准模型进行对比,结果显示:(1)检测精度方面,与YOLOv10n和YOLO11n相比,改进模型的mAP@0.5指标分别提升了6.1和7.4个百分点,mAP@0.5:0.95指标分别提升了3.6和4.2个百分点,同时,参数量分别降低了26.1%和34.9%。(2)检测速度方面,改进模型Small和Nano两种版本的推理速度分别达到了29 FPS和35 FPS。实验结果表明:与参考模型相比,改进算法在复杂驾驶环境中的表现更加优异,在检测精度与检测速度之间达到了更好的平衡,适于部署在智能网联汽车的环境感知系统中。 展开更多
关键词 实时目标检测 复杂驾驶环境 DPRT-YOLO 多尺度特征融合 TRANSFORMER
在线阅读 下载PDF
基于深度学习的轻量级实时图像分割方法研究 被引量:2
17
作者 李建锋 熊明强 +3 位作者 陈园琼 王宗达 向涛 孙培玮 《通信学报》 北大核心 2025年第2期176-190,共15页
针对深度学习在各领域应用中因模型复杂度提升而引发的计算与存储负担,尤其在图像分割任务中面临的算法复杂性、实时响应不足及高内存占用问题,提出了一种轻量级且高效的分割网络架构——多尺度叠加融合网络(MSFNet)。MSFNet设计了一个... 针对深度学习在各领域应用中因模型复杂度提升而引发的计算与存储负担,尤其在图像分割任务中面临的算法复杂性、实时响应不足及高内存占用问题,提出了一种轻量级且高效的分割网络架构——多尺度叠加融合网络(MSFNet)。MSFNet设计了一个双分支多尺度边界融合模块,该模块通过融合不同尺度的特征信息与边界细节,有效提升了图像分割精度,同时显著减少了模型参数量。实验结果表明,MSFNet在3个公开数据集上表现优异,其模型参数量仅为0.6×10^(6),在RTX 3070 GPU上处理大小为800像素×800像素的图像仅需12 ms,显著提升了分割任务的执行效率和资源利用率。因此,该模型特别适合应用于资源有限的边缘设备或移动设备中,为实时图像分割应用提供了有力的技术支撑。 展开更多
关键词 图像分割 轻量级实时网络 双分支多尺度边界融合模块
在线阅读 下载PDF
融合注意力和上下文信息的遥感图像小目标检测算法 被引量:2
18
作者 刘赏 周煜炜 +2 位作者 代娆 董林芳 刘猛 《计算机应用》 北大核心 2025年第1期292-300,共9页
对多尺度的遥感图像进行小目标检测时,基于深度学习的目标检测算法容易出现误检和漏检的情况。这是因为此类算法的特征提取模块进行了多次的下采样操作;而且未能根据不同类别、不同尺度的目标关注所需的上下文信息。为了解决该问题,提... 对多尺度的遥感图像进行小目标检测时,基于深度学习的目标检测算法容易出现误检和漏检的情况。这是因为此类算法的特征提取模块进行了多次的下采样操作;而且未能根据不同类别、不同尺度的目标关注所需的上下文信息。为了解决该问题,提出一种融合注意力和上下文信息的遥感图像小目标检测算法ACM-YOLO(Attention-Context-Multiscale YOLO)。首先,应用细粒度的查询感知稀疏注意力以减少小目标特征信息的丢失,从而避免漏检;其次,设计局部上下文增强(LCE)函数以更好地关注不同类别的遥感目标所需的上下文信息,从而避免误检;最后,使用加权双向特征金字塔网络(BiFPN)强化特征融合模块对遥感图像小目标的多尺度特征融合能力,从而改善算法检测效果。在DOTA数据集和NWPU VHR-10数据集上进行对比实验和消融实验,以验证所提算法的有效性和泛化性。实验结果表明,在2个数据集上所提算法的平均精确率均值(mAP)分别达到了77.33%和96.12%,而相较于YOLOv5算法,召回率分别提升了10.00和7.50个百分点。可见,所提算法能有效提升mAP和召回率,减少误检和漏检。 展开更多
关键词 遥感图像 小目标检测 稀疏采样 局部上下文信息增强 多尺度特征融合
在线阅读 下载PDF
基于尺度交互蒸馏网络的薄壳山核桃品种识别方法 被引量:2
19
作者 赵宁 陈智坤 +3 位作者 杨朋飞 王瑞多 张计育 李永荣 《农业工程学报》 北大核心 2025年第5期209-216,共8页
薄壳山核桃是一种重要的经济坚果,由于品种繁多,对其进行快速科学的鉴定是进行种质资源保护与品种选育的重要基础。为了实现薄壳山核桃品种的快速鉴定,该研究针对品种鉴定提出了基于尺度交互蒸馏网络的薄壳山核桃品种识别方法,通过学习... 薄壳山核桃是一种重要的经济坚果,由于品种繁多,对其进行快速科学的鉴定是进行种质资源保护与品种选育的重要基础。为了实现薄壳山核桃品种的快速鉴定,该研究针对品种鉴定提出了基于尺度交互蒸馏网络的薄壳山核桃品种识别方法,通过学习薄壳山核桃的可判别性特征实现品种鉴定。研究选择波尼等12种薄壳山核桃,建立了9048张实拍图像的品种识别数据集;针对薄壳山核桃图片取样中距离变化导致的目标尺度多样性问题,设计了一种全局-局部特征协同学习方案,用于提取尺度不变特征;与此同时,该研究结合尺度知识蒸馏方案,通过训练提取的不同尺度数据进行预测保证模型训练的有效性。结果表明,通过训练该方法对上述12个品种的薄壳山核桃品种识别准确率均达到了96.98%,显著提高了薄壳山核桃的品种鉴定准确率。该研究开发的薄壳山核桃品种自动识别模型对于未来果实鉴定及产品分选提供了技术手段。 展开更多
关键词 薄壳山核桃 品种鉴定 尺度交互蒸馏 多尺度上下文注意融合 知识蒸馏
在线阅读 下载PDF
融合多尺度特征与注意力的小样本目标检测 被引量:1
20
作者 张英俊 甘望阳 +1 位作者 谢斌红 张睿 《小型微型计算机系统》 北大核心 2025年第3期689-696,共8页
针对现有小样本目标检测模型存在的尺度变化问题,支持集与查询集之间的外观变化、遮挡导致的误检与漏检问题,本文提出一种融合多尺度特征与注意力的小样本目标检测模型.首先,采用ResNet-101网络进行特征提取,同时引入ASPP(Atrous Spatia... 针对现有小样本目标检测模型存在的尺度变化问题,支持集与查询集之间的外观变化、遮挡导致的误检与漏检问题,本文提出一种融合多尺度特征与注意力的小样本目标检测模型.首先,采用ResNet-101网络进行特征提取,同时引入ASPP(Atrous Spatial Pyramid Pooling)模块获取不同的感受野,以捕获目标细节信息的多尺度特征.其次,采用Bi-FPN网络进行多尺度特征融合,获得更具代表性的查询特征与支持特征,有效缓解尺度变化问题.然后,利用提出的注意力引导特征增强模块对查询特征与支持特征进行自身关注,使得它们具有更好的判别能力,由此促进查询特征与支持特征的融合,以更好地应对外观变化和遮挡带来的挑战,从而缓解误检、漏检问题.最后,将分类头与边界框回归头进行解耦,分别对RPN网络基于细粒度查询特征产生的候选区域进行目标分类与目标定位.在PASCAL VOC与MS COCO数据集上的实验结果表明,所提模型的检测性能优于主流的小样本目标检测模型,相较于基线模型DCNet,mAP平均分别提升了3.5%与2.1%. 展开更多
关键词 小样本学习 元学习 目标检测 多尺度特征融合 注意力机制
在线阅读 下载PDF
上一页 1 2 98 下一页 到第
使用帮助 返回顶部