期刊文献+
共找到32篇文章
< 1 2 >
每页显示 20 50 100
基于格拉姆角场与并行KConvNeXt的采样系统异常压力检测
1
作者 张祺 肖伸平 +2 位作者 聂立波 彭远刚 宋永波 《中国医学物理学杂志》 2025年第9期1184-1190,共7页
为提高全自动生化分析仪的测试精度与检测效率,提出一种基于格拉姆角场(GAF)与并行KConvNeXt网络的检测模型,以准确判定采样系统在采样过程中由样本针堵塞所产生的异常情况。首先运用GAF方法,将一维采样压力信号的时间序列转化为二维图... 为提高全自动生化分析仪的测试精度与检测效率,提出一种基于格拉姆角场(GAF)与并行KConvNeXt网络的检测模型,以准确判定采样系统在采样过程中由样本针堵塞所产生的异常情况。首先运用GAF方法,将一维采样压力信号的时间序列转化为二维图像。随后,采用改进的注意力机制结合并行双通道KConvNeXt网络对压力信号进行分类,最终实现94.58%的分类准确率。实验结果表明,提出的方法能有效捕捉采样压力信号的关键特征,为生化分析仪采样系统异常压力检测提供一种高效的解决方案,具有重要的实际应用价值。 展开更多
关键词 采样系统 异常检测 格拉姆角场 convnext网络
暂未订购
基于ConvNeXt卷积神经网络模型对烟叶成熟度识别的研究
2
作者 郭雨萌 肖亦雄 +4 位作者 肖孟宇 马云明 谭军 周喜新 范伟 《北方农业学报》 2025年第1期125-134,共10页
【目的】确定ConvNeXt卷积神经网络模型在烟叶成熟度识别中最适用于便携手持设备应用的主流图像预处理方法。【方法】使用便携手持图像采集设备采集烟叶图像,应用高斯缩放、对比增强、色彩增强和裁剪缩放4种预处理方法,结合ConvNeXt卷... 【目的】确定ConvNeXt卷积神经网络模型在烟叶成熟度识别中最适用于便携手持设备应用的主流图像预处理方法。【方法】使用便携手持图像采集设备采集烟叶图像,应用高斯缩放、对比增强、色彩增强和裁剪缩放4种预处理方法,结合ConvNeXt卷积神经网络构建模型,记录模型对烟叶成熟度识别的准确率、训练耗时和模型大小。通过对比分析不同预处理方法在性能、训练效率和模型大小上的表现,评估ConvNeXt卷积神经网络模型在便携设备上识别烟叶成熟度的应用潜力。【结果】在4种图像预处理方法中,高斯缩放在结合ConvNeXt卷积神经网络模型进行烟叶成熟度识别时综合表现最优,高斯缩放预处理后的模型准确率达到97.68%,优于对比增强、色彩增强和裁剪缩放,且训练耗时仅为8.927 min,模型大小为63.5 MB,兼具高效性与轻量化特征。在对比YOLO和XGBoost等其他模型时,高斯缩放结合ConvNeXt卷积神经网络构建的模型在各项指标中均表现突出,尤其在准确率和训练时间上展现出明显优势,适配便携手持设备的应用需求。【结论】高斯缩放作为图像预处理方法,能有效提升ConvNeXt卷积神经网络模型在烟叶成熟度识别任务中的准确性和运行效率。高斯缩放结合ConvNeXt卷积神经网络构建的模型训练速度快、占用资源少,适合在便携手持图像采集设备上使用。 展开更多
关键词 convnext卷积神经网络模型 烟叶成熟度识别 便携手持图像采集设备 智能化图像识别 图像预处理方法
在线阅读 下载PDF
基于改进Convnext的多尺度融合注意力机制稻米品种分类
3
作者 黄文杰 刘珏 +1 位作者 方焯 苗青 《中国粮油学报》 北大核心 2025年第5期169-179,共11页
针对当下在自动化和智能化的生产生活中增强生产者和消费者购买米种的透明度问题,方便消费者自行判断购买米种信息,由于判断人工识别的效率低、识别能力差,提出了一种适用于在线颗粒分割,并基于改进Convnext网络实现大米种类检测的方法... 针对当下在自动化和智能化的生产生活中增强生产者和消费者购买米种的透明度问题,方便消费者自行判断购买米种信息,由于判断人工识别的效率低、识别能力差,提出了一种适用于在线颗粒分割,并基于改进Convnext网络实现大米种类检测的方法。为实现自动化在线米粒的种类和品质分类应用,采用Cmos类相机对多种米粒的外观信息进行了采集,包括12000张图片6类米种;对采集的米粒图像采用匹配点区域选取和分割点匹配策略,对4种情况下的黏结米粒图像进行了外观黏结分割;在此基础上运用Convnext对采集稻米图片进行种类分类。为实现更好效果的分类,在Convnext的基础上引入多尺度特征融合机制和PSC注意力机制得到了Convnext-Mix-PSC(ConvMP)模型,改造convnext block模块完成位置和通道和多尺度特征的混合,再加入PSC注意力机制增强模型的自适应地集成重要的局部特征和全局特征,以单米粒图像为输入对象成功分类米粒的品种并且将准确率由90.59%提高到94.98%,验证了其在面向颗粒作物的现代农业信息化和食品安全检测中有较好效果。 展开更多
关键词 大米种类分类 黏结分割 神经网络 convnext 注意力网络
在线阅读 下载PDF
基于FA-ConvNeXt和小样本学习的唐卡主尊识别
4
作者 白科 史伟 +1 位作者 赵心怡 徐家明 《计算机技术与发展》 2025年第6期27-33,共7页
针对唐卡主尊图像识别过程中,由于图像结构和纹理特征复杂、颜色绚丽且部分构图元素具有较高相似度而造成识别类别混淆的问题,提出了FA-ConvNeXt网络。首先,对于目前分类方法存在的数据集类别少、数量不平衡等问题,通过查阅资料和采用... 针对唐卡主尊图像识别过程中,由于图像结构和纹理特征复杂、颜色绚丽且部分构图元素具有较高相似度而造成识别类别混淆的问题,提出了FA-ConvNeXt网络。首先,对于目前分类方法存在的数据集类别少、数量不平衡等问题,通过查阅资料和采用数据增强方法来扩充数据集。为了提高网络的分类准确度,在ConvNeXt网络架构上引入多尺度特征增强模块(MFEB),使网络更好地提取图像的结构和纹理特征,同时构建多注意力特征提取模块(MAEB),使网络更加关注具有判别性的特征,以减少冗余信息的干扰。通过实验与相关主流模型进行比较,结果表明,提出的FA-ConvNeXt网络识别准确率、召回率及F1值分别达到了97.26%、97.18%、96.38%,较原网络分别提升了7.35百分点、6.94百分点、6.17百分点,且均优于被对比模型。最后将FA-ConvNeXt网络作为唐卡小样本学习的骨干网络,在小样本分类任务中也取得了良好的效果。 展开更多
关键词 唐卡主尊图像识别 注意力 多尺度特征增强 小样本学习 convnext网络
在线阅读 下载PDF
基于ConvNeXt的北京地区红外相机野生动物图像识别改进模型构建 被引量:2
5
作者 齐建东 郑尚姿 +1 位作者 陈子仪 马鐘添 《林业科学》 EI CAS CSCD 北大核心 2024年第8期33-45,共13页
【目的】针对红外相机拍摄的野生动物图像数据量大、无效图像占比多、图像背景复杂等问题,提出一种可对图像进行自动、高准确率识别的模型,为生物多样性研究和野生动物保护工作提供更高效的支持。【方法】收集整理近4年来北京园林绿化... 【目的】针对红外相机拍摄的野生动物图像数据量大、无效图像占比多、图像背景复杂等问题,提出一种可对图像进行自动、高准确率识别的模型,为生物多样性研究和野生动物保护工作提供更高效的支持。【方法】收集整理近4年来北京园林绿化生态系统监测网络各站点红外相机拍摄的约5 TB图像数据,对其手工标注并进行数据增强后自建10类共4234张图像数据集。基于ConvNeXt卷积神经网络,结合北京地区野生动物图像数据集特点,设计BSGG-ConvNeXt模型,使用BlurPool、SENet、全局响应归一化层(GRN)、GCNet提升模型识别能力,并在自建数据集上探究训练策略对ConvNeXt网络识别准确率的影响,通过与其他经典模型比较,明确BSGG-ConvNeXt模型的优势。利用公开的红外野生动物Snapshot Serengeti(SS)数据集和Caltech Camera Traps(CCT)数据集,验证模型的泛化能力。【结果】以ConvNeXt的ConvNeXt-T网络尺寸模型为例,其在自建数据集中的准确率为74.13%,乘加累积操作数(MACs)为4.47×10^(9)。应用不同改进方案发现,使用BlurPool后准确率提升2.2%,MACs降至1.07×10^(9);使用SENet后准确率提升3.2%;使用GRN并删掉缩放层后准确率升至87.18%,参数数量增至27.88×10^(6);使用GCNet后在不增大计算量的情况下准确率升至75.44%,但参数数量增至28.25×10^(6)。将上述改进方案结合得到的BSGGConvNeXt应用于ConvNeXt-T模型获得BSGG-ConvNeXt-T模型,参数数量虽有少量增多,但MACs降为1.07×10^(9),模型准确率升至83.63%,高于原模型。使用预训练权重后的BSGG-ConvNeXt-T模型准确率可达94.07%,高于ResNet-50(76.39%)、ResNeXt-50(87.60%)、MobileViT(90.00%)、DenseNet(87.66%)、RegNet(69.90%)、ConvNeXtv2(91.93%)、SwinTransformer的(86.23%)和MobileOne(71.53%),将BSGG-ConvNeXt模型应用于4种不同网络尺寸的ConvNeXt模型后,在自建数据集中的表现均优于未改进模型。BSGG-ConvNeXt模型在SS数据集中的识别准确率达50.28%,在CCT数据集中的识别准确率达56.15%,均高于原模型的准确率。【结论】BSGG-ConvNeXt模型识别红外相机拍摄的野生动物图像准确率更高,在自建、公开的野生动物红外图像数据集上均有较好表现,且具有一定泛化能力。 展开更多
关键词 野生动物 图像识别 深度学习 卷积神经网络 convnext
在线阅读 下载PDF
面向图像数据的ConvNeXt特征提取研究 被引量:2
6
作者 杨鹏跃 王锋 魏巍 《计算机科学》 CSCD 北大核心 2024年第S01期283-289,共7页
卷积神经网络在计算机视觉任务中已取得诸多成果,无论是目标检测还是分割,都依赖于提取到的特征信息,一些模糊性的数据和物体形状各异等问题为特征提取带来了极大的挑战。传统的卷积结构只能学习到特征图相邻空间位置的上下文信息,无法... 卷积神经网络在计算机视觉任务中已取得诸多成果,无论是目标检测还是分割,都依赖于提取到的特征信息,一些模糊性的数据和物体形状各异等问题为特征提取带来了极大的挑战。传统的卷积结构只能学习到特征图相邻空间位置的上下文信息,无法对全局信息进行提取,而自注意力机制等模型虽具有更大的感受野和建立全局的依赖关系,但存在计算复杂度过高和需要大量数据等不足。为此,提出了一种CNN与LSTM结合的模型,该模型在增强局部感受野的前提下,可以更好地结合图像数据的全局信息。研究以主干网络ConvNeXt-T为基础模型,通过拼接不同大小卷积核以融合多尺度特征来解决物体形状各异的问题,并从水平和垂直两个方向聚合双向长短期记忆网络关注全局与局部信息的交互性。实验对公开访问的CIFAR-10,CIFAR-100,Tiny ImageNet数据集进行图像分类任务,所提出的网络在3个数据集实验中相较于基础模型ConvNeXt-T在准确率上分别提高了3.18%,2.91%,1.03%。实验证明改进后的ConvNeXt-T网络相较于基础模型在参数量和准确性方面都有了大幅度提升,可提取到更加有效的特征信息。 展开更多
关键词 特征提取 局部感受野 convnext-T 多尺度特征 双向长短期记忆网络
在线阅读 下载PDF
基于多流ConvNeXt网络和马氏距离度量的未知信号增量识别
7
作者 肖易寒 刘序斌 +1 位作者 于祥祯 赵忠凯 《上海交通大学学报》 EI CAS CSCD 北大核心 2024年第4期481-491,共11页
为解决现阶段基于深度学习网络的信号识别技术无法实现未知信号增量识别的问题,提出了基于多流ConvNeXt网络和马氏距离度量(MDM)相结合的未知信号增量识别方法.首先,利用改进的多流ConvNeXt网络提取信号的属性特征;其次,使用马氏距离度... 为解决现阶段基于深度学习网络的信号识别技术无法实现未知信号增量识别的问题,提出了基于多流ConvNeXt网络和马氏距离度量(MDM)相结合的未知信号增量识别方法.首先,利用改进的多流ConvNeXt网络提取信号的属性特征;其次,使用马氏距离度量判决方法进行未知信号检测进而实现已知信号和未知信号的二分类;最后,该方法根据不断增加的未知信号对模型的参数进行自动更新,使模型具备了自我进化的能力,进而可以识别出不断增加的新的未知信号类别,实现对未知信号的增量识别.仿真实验结果表明,该方法对未知信号的平均识别率达到97%以上. 展开更多
关键词 未知信号 多流convnext网络 马氏距离度量 增量识别
在线阅读 下载PDF
ConvNeXt网络及Stacked BiLSTM-Self-Attention在轴承剩余寿命预测中的应用 被引量:1
8
作者 张印文 王琳霖 +1 位作者 薛文科 梁文婕 《机电工程》 CAS 北大核心 2024年第11期1977-1985,1994,共10页
在滚动轴承剩余使用寿命预测方面,采用传统方法时存在鲁棒性差、精度低等各种问题。近些年来深度学习的发展为解决这些问题提供了新的思路。为了进一步提高对轴承寿命的预测精度,提出了一种基于ConvNeXt网络、堆叠双向长短时记忆网络(SB... 在滚动轴承剩余使用寿命预测方面,采用传统方法时存在鲁棒性差、精度低等各种问题。近些年来深度学习的发展为解决这些问题提供了新的思路。为了进一步提高对轴承寿命的预测精度,提出了一种基于ConvNeXt网络、堆叠双向长短时记忆网络(SBiLSTM)和自注意力机制(Self-Attention)的滚动轴承寿命预测方法。首先,采用连续小波变换(CWT)构造了振动信号的时频图,以更好地捕捉信号的时域和频域特征;然后,将得到的时频图输入到构建的ConvNeXt网络中,通过卷积、池化和层归一化等操作,对时频图的关键特征进行了提取;最后,将提取后的特征输入到SBiLSTM-Self-Attention模块中,进一步提取了时序信息和特征权重分配数据,利用PHM2012挑战数据集进行了验证,通过实验分析了该方法的均方根误差(RMSE)和平均绝对误差(MAE)。研究结果表明:相较于现有技术方法,该方法的平均RMSE为0.031;与其他三种方法,即卷积神经网络(CNN)、深度残差双向门控循环单元(DRN-BiGRU)和深度卷积自注意力双向门控循环单元(DCNN-Self-Attention-BiGRU)相比,其平均RMSE值分别下降了79%、74%和55%,MAE值分别下降了78%、73%和53%,说明该方法在滚动轴承剩余寿命预测中有较好的性能。 展开更多
关键词 滚动轴承 剩余寿命预测 convnext网络 堆叠双向长短时记忆网络 自注意力机制 深度学习 连续小波变换
在线阅读 下载PDF
基于ConvNeXt模型的胸部X线图像的疾病分类与可视化 被引量:1
9
作者 韩磊 裴溪源 温军玲 《北京生物医学工程》 2024年第4期346-351,369,共7页
目的 胸部X线是临床实践中常见的胸部疾病筛查和诊断方式。由于放射科医生长时间阅片容易视觉疲劳以及医疗资源分配不均衡的问题,导致误诊和漏诊的情况时有发生。针对这一问题,本研究运用深度学习技术,提出了一个基于ConvNeXt模型的胸部... 目的 胸部X线是临床实践中常见的胸部疾病筛查和诊断方式。由于放射科医生长时间阅片容易视觉疲劳以及医疗资源分配不均衡的问题,导致误诊和漏诊的情况时有发生。针对这一问题,本研究运用深度学习技术,提出了一个基于ConvNeXt模型的胸部X线图像的疾病检测方法,旨在提高胸部疾病诊断准确度、减轻误诊风险并提高医生工作效率。方法 利用大规模公开胸部X线图像数据集ChestX-ray14训练ConvNeXt模型,该模型在ResNet模型的基础上,融合了视觉Transformer结构的优势,可以有效提高模型的特征提取和识别能力,同时以AUC(ROC曲线下方的面积)作为模型性能的评价指标,与已有的分类模型CheXNet、ResNet及Swin Transformer进行了对比。此外,通过引入Grad-CAM可视化方法,利用卷积神经网络特征图的梯度信息生成胸部X线图像的类激活热力图,实现对病灶区域的定位,从而提高医生的诊断效率。结果 基于ConvNeXt模型的诊断方法在识别14种胸部疾病时平均AUC值可达0.842,特别在识别积液(AUC值为0.883)、水肿(AUC值为0.902)和疝气(AUC值为0.942)等疾病时表现较为令人满意。结论 本文提出的方法在胸部X线图像的疾病检测中具有较好的性能,是一种对胸部X线图像进行胸部疾病诊断进而协助医生提高工作效率的有益尝试。 展开更多
关键词 卷积神经网络 深度学习 convnext模型 胸部X线 辅助诊断
在线阅读 下载PDF
基于STFT与改进ConvNeXt配电网故障区段定位方法研究
10
作者 邓思敬 吴浩 +1 位作者 邓力川 蔡源 《电工电气》 2024年第7期16-26,52,共12页
在目前的配电线路智能故障诊断研究方法中,存在着难以充分提取故障特征、抗噪声干扰能力弱、抗高阻能力差等问题。提出了一种基于短时傅里叶变换(STFT)并引入迁移学习的改进ConvNeXt配电网故障区段定位方法。该方法通过采集配电网各馈... 在目前的配电线路智能故障诊断研究方法中,存在着难以充分提取故障特征、抗噪声干扰能力弱、抗高阻能力差等问题。提出了一种基于短时傅里叶变换(STFT)并引入迁移学习的改进ConvNeXt配电网故障区段定位方法。该方法通过采集配电网各馈线两端的零序电流,计算出各馈线两端的零序电流幅值差,然后将各段的零序电流幅值差拼接成一个组合信号,用STFT处理组合信号,得到时频图,并将得到的时频图分为训练集和测试集。仿真结果表明,基于STFT并改进的ConvNeXt配电网故障区段定位方法在不同的故障距离、不同的接地电阻和不同的初始故障角度下都能有效地实现故障区段的选择,并且该方法具有较强的抗高阻能力以及较强的抗噪声干扰能力,在部分数据丢失的情况下仍能准确进行区段定位。 展开更多
关键词 配电网 暂态零序电流 区段定位 短时傅里叶变换 convnext模型
在线阅读 下载PDF
基于多层次特征图谱的高压并联电抗器声纹识别模型研究
11
作者 王果 贺建山 +2 位作者 闵永智 何怡刚 郝大宇 《高电压技术》 北大核心 2025年第6期3030-3042,I0036-I0037,共15页
在高压并联电抗器声纹在线监测领域,针对长时间序列特性的电抗器声信号复杂度高、数据维度大、能量分散导致声纹识别模型信息利用率低、鲁棒性和识别率不高的问题,提出了一种基于多层次特征图谱的改进ConvNeXt-T网络声纹识别模型。首先... 在高压并联电抗器声纹在线监测领域,针对长时间序列特性的电抗器声信号复杂度高、数据维度大、能量分散导致声纹识别模型信息利用率低、鲁棒性和识别率不高的问题,提出了一种基于多层次特征图谱的改进ConvNeXt-T网络声纹识别模型。首先,声信号通过点对称变换和类Gram矩阵图形化的细化频谱转换为时域、频域特征图谱,基于电抗器声纹特性提出50 Hz Gammatone滤波器组生成能量特征图谱;然后引入轻量级CA注意力机制,作为特征图谱自适应融合模块对ConvNeXt-T网络的输入侧进行改进;最后,结合实测数据验证了模型的优越性,结果表明所提模型在测试集上的平均识别准确率达97.82%,较单域图谱提升3.14%,较FCN、RsNet、ApR-IDRSN等对比模型提升6.51%,同时该模型在高斯白噪声、人声和鸟叫声环境中表现出最佳的抗噪性。该模型综合运用高维度多域特征提取方法和图形化降维表征方法,能显著提高特征丰富度和信息利用率。 展开更多
关键词 高压并联电抗器 声纹识别 特征图谱 convnext-T网络 抗噪性
原文传递
融合注意力的ConvNeXt视网膜病变自动分级 被引量:8
12
作者 黄文博 黄钰翔 +1 位作者 姚远 燕杨 《光学精密工程》 EI CAS CSCD 北大核心 2022年第17期2147-2154,共8页
由于视网膜病变的类间图像特征差别小及分类临界值相对模糊,自动分级算法存在识别与分级准确率低的问题,提出了融合高效通道注意力(Efficient Channel Attention,ECA)特征的ConvNeXt视网膜病变自动分级模型。针对数据集中数据不足的问题... 由于视网膜病变的类间图像特征差别小及分类临界值相对模糊,自动分级算法存在识别与分级准确率低的问题,提出了融合高效通道注意力(Efficient Channel Attention,ECA)特征的ConvNeXt视网膜病变自动分级模型。针对数据集中数据不足的问题,采用水平翻转左右变换的方法扩充数据,并引入相关数据集来均衡数据的分布。针对眼底图像中出现的图像模糊、光照不均等问题,采用Graham方法对图像进行预处理突出病变特征。提出了融合注意力的ConvNeXt网络来辅助医生诊断视网膜病变,引入ECA机制,并设计了E-Block模块,该模块具有高性能、低参数的特性,能够在训练过程中有效捕捉跨通道交互的信息,同时避免降维。采用迁移学习方法训练网络的所有层参数,加入dropout方法避免ConvNeXt网络的学习能力过强导致的过拟合问题。实验结果表明,所提出的模型敏感性为95.20%,特异度为98.80%,准确率为95.21%。与常用的网络相比,本文方法针对视网膜病变自动分级各项性能指标均有提高。 展开更多
关键词 视网膜病变识别与分级 迁移学习 convnext网络 高效通道注意力 E-Block
在线阅读 下载PDF
基于B/S三层架构的虚拟仿真教学模型构建研究
13
作者 田斐 金鹏 裴莹 《自动化与仪器仪表》 2025年第5期191-197,共7页
对虚拟仿真教学模型进行研究,以机械专业为例,设计了一种基于B/S三层架构的虚拟仿真教学系统。为增强学生在虚拟仿真教学系统中与虚拟机械之间的交互感,实现虚拟机械拆卸、组装等任务,提出一种结合YOLOv5与卡尔曼滤波的手部识别追踪方法... 对虚拟仿真教学模型进行研究,以机械专业为例,设计了一种基于B/S三层架构的虚拟仿真教学系统。为增强学生在虚拟仿真教学系统中与虚拟机械之间的交互感,实现虚拟机械拆卸、组装等任务,提出一种结合YOLOv5与卡尔曼滤波的手部识别追踪方法,以更好地实现学生在虚拟仿真课程上完成机械拆卸、组装过程。同时提出一种改进ConvNeXt网络的动态手势识别方法,使系统在交互过程中能快速识别在机械拆卸和组装中的开始、暂停、结束、重来等手势动作,实现对动作的控制。经过仿真测试,表明:结合YOLOv5与卡尔曼滤波的手部识别追踪方法对手部识别检测的速度快、精度高,IOU值与AP值分别达到了0.93与94.12%,结合注意力机制和改进ConvNeXt网络的动态手势识别方法的手势识别精度高,IOU值与AP值分别达到了0.94与93.05%;将上述方法部署于基于B/S的虚拟仿真教学系统中,能更好地展示控制识别效果。 展开更多
关键词 虚拟仿真教学 YOLOv5 卡尔曼滤波 convnext网络 注意力机制
原文传递
基于双流特征融合的肺结节图像分割网络
14
作者 郝胜男 庞建华 《现代电子技术》 北大核心 2025年第1期1-7,共7页
为了提高对肺结节的准确分割,文中提出一种CSF-UNet的双骨干网络特征提取方法。使用两种不同侧重的骨干网络并行提取图像特征,通过利用ConvNeXt网络提取局部特征,并结合Swin Transformer网络提取全局特征来提升模型的特征提取能力。提... 为了提高对肺结节的准确分割,文中提出一种CSF-UNet的双骨干网络特征提取方法。使用两种不同侧重的骨干网络并行提取图像特征,通过利用ConvNeXt网络提取局部特征,并结合Swin Transformer网络提取全局特征来提升模型的特征提取能力。提出了一种自适应大核融合模块,有效地融合两种不同规格的特征,通过串联两个大核卷积获得更大的感受野和动态选择机制来突出重要的空间区域。在SPPF中融合了ECA通道注意力和密集链接,提出了ESPP模块以进一步挖掘双骨干网络提取的高级语义信息,使网络更加关注重要的特征通道。在LIDC数据集上的实验结果表明,提出的模型在3个指标上优于基本UNet模型以及最近几年其他研究团队提出的针对该数据集的分割网络。最终,CSF-UNet模型实现了78.1%的IoU、87.71%的DSC、87.19%的敏感度和88.23%的精确度。这些结果表明,该模型在肺结节分割方面表现出良好的性能,对医生进行早期肺结节诊断具有重要的临床意义和应用价值。 展开更多
关键词 肺结节 TRANSFORMER convnext 注意力机制 计算机视觉 双骨干网络
在线阅读 下载PDF
复杂环境下高速服务区禁停检测算法
15
作者 安国成 王晓龙 +1 位作者 江波 幸健 《计算机工程》 北大核心 2025年第2期356-364,共9页
高速服务区车辆禁停检测面临场景复杂的挑战,目前基于单一车型信息的禁停检测算法受到昼夜光照变化、车辆重叠遮挡以及视角倾斜等因素的影响,无法在连续时间段内准确判断禁停区域内的车辆是否为同一辆车,存在较高的误检率和漏检率。为此... 高速服务区车辆禁停检测面临场景复杂的挑战,目前基于单一车型信息的禁停检测算法受到昼夜光照变化、车辆重叠遮挡以及视角倾斜等因素的影响,无法在连续时间段内准确判断禁停区域内的车辆是否为同一辆车,存在较高的误检率和漏检率。为此,提出一种复杂环境下高速服务区禁停检测算法,首先使用YOLOv5车辆检测算法获取车型与位置信息,并给出一种改进禁停区域匹配方法,提升复杂环境下目标和区域匹配准确率;其次对禁停区域内目标车辆使用ConvNeXt车身颜色识别算法获取颜色信息;最后设计一种分阶段控制的多维信息匹配与融合策略,有效降低因光照、遮挡、视角等变化导致的车辆身份判断不准确情况,从而降低服务区车辆禁停检测的误报率与漏检率。实验结果表明,所提方法在高速服务区禁停数据集上的禁停误检率由3.56%下降到0.77%,禁停漏检率由11.3%下降到2.48%,不仅为服务区管理禁停行为提供了车辆多属性信息和车辆违停时长信息,而且满足服务区多场景部署的性能要求,可较好地用于实际应用中。 展开更多
关键词 convnext网络 车身颜色识别 YOLOv5算法 车辆检测 禁停检测
在线阅读 下载PDF
ideo-Based Human Activity Recognition Using Hybrid Deep Learning Model
16
作者 Jungpil Shin Md.Al Mehedi Hasan +2 位作者 Md.Maniruzzaman Satoshi Nishimura Sultan Alfarhood 《Computer Modeling in Engineering & Sciences》 2025年第6期3615-3638,共24页
Activity recognition is a challenging topic in the field of computer vision that has various applications,including surveillance systems,industrial automation,and human-computer interaction.Today,the demand for automa... Activity recognition is a challenging topic in the field of computer vision that has various applications,including surveillance systems,industrial automation,and human-computer interaction.Today,the demand for automation has greatly increased across industries worldwide.Real-time detection requires edge devices with limited computational time.This study proposes a novel hybrid deep learning system for human activity recognition(HAR),aiming to enhance the recognition accuracy and reduce the computational time.The proposed system combines a pretrained image classification model with a sequence analysis model.First,the dataset was divided into a training set(70%),validation set(10%),and test set(20%).Second,all the videos were converted into frames and deep-based features were extracted from each frame using convolutional neural networks(CNNs)with a vision transformer.Following that,bidirectional long short-term memory(BiLSTM)-and temporal convolutional network(TCN)-based models were trained using the training set,and their performances were evaluated using the validation set and test set.Four benchmark datasets(UCF11,UCF50,UCF101,and JHMDB)were used to evaluate the performance of the proposed HAR-based system.The experimental results showed that the combination of ConvNeXt and the TCN-based model achieved a recognition accuracy of 97.73%for UCF11,98.81%for UCF50,98.46%for UCF101,and 83.38%for JHMDB,respectively.This represents improvements in the recognition accuracy of 4%,2.67%,3.67%,and 7.08%for the UCF11,UCF50,UCF101,and JHMDB datasets,respectively,over existing models.Moreover,the proposed HAR-based system obtained superior recognition accuracy,shorter computational times,and minimal memory usage compared to the existing models. 展开更多
关键词 Human activity recognition BiLSTM convnext temporal convolutional network deep learning
在线阅读 下载PDF
基于改进YOLOv5s算法的轨道扣件缺陷检测
17
作者 张兴盛 阮久宏 +2 位作者 沈本兰 李金城 华超 《山东交通学院学报》 2025年第2期10-18,共9页
针对轨道扣件缺陷复杂程度较高、严重影响列车行车安全、人工巡检效率较低等问题,提出一种基于计算机视觉的轨道扣件缺陷检测算法。考虑轨道扣件缺陷的特征以及检测时所处复杂作业环境,采用ConvNeXt V2模块代替YOLOv5s算法主干网络前端C... 针对轨道扣件缺陷复杂程度较高、严重影响列车行车安全、人工巡检效率较低等问题,提出一种基于计算机视觉的轨道扣件缺陷检测算法。考虑轨道扣件缺陷的特征以及检测时所处复杂作业环境,采用ConvNeXt V2模块代替YOLOv5s算法主干网络前端C3模块,采用Efficient Rep网络改进YOLOv5s算法主干网络末端,引入具有动态非聚焦机制的损失函数WIoU加快YOLOv5s算法模型计算收敛速度,形成改进YOLOv5s算法(CR-YOLOv5s算法),检测轨道扣件缺陷状态,开展消融试验,并与快速区域卷积神经网络(faster region-based convolutional neural networks,Faster R-CNN)算法、单阶多层检测(single shot multibox detector,SSD)算法、YOLOv3算法、YOLOv4算法检测进行对比试验。试验结果表明:CR-YOLOv5s算法的召回率为89.3%,平均检测精度均值为95.8%,平均检测时间为10.1 ms,3项指标均优于其他4种算法;与YOLOv5s算法相比,CR-YOLOv5s算法的召回率均值提高5.7%,平均检测精度均值提高4.0%,平均检测时间延长1.0 ms。综合考虑轨道扣件状态检测任务要求、召回率、平均检测精度均值、平均检测时间等因素,采用CR-YOLOv5s算法检测轨道扣件缺陷状态更具优势。 展开更多
关键词 轨道扣件 缺陷检测 YOLOv5s算法 convnext V2模块 Efficient Rep网络 损失函数WIoU
在线阅读 下载PDF
基于改进ConvNeXt的皮肤镜图像分类方法 被引量:9
18
作者 李建威 吕晓琪 谷宇 《计算机工程》 CAS CSCD 北大核心 2023年第10期239-246,254,共9页
皮肤癌是最致命的癌症之一,对皮肤镜图像进行精确分类尤为关键,然而现有的皮肤镜图像存在形态复杂、样本数量较少的问题,导致现有的自动分类方法难以提取图像特征信息,误判率较高。提出一种改进ConvNeXt的方法,并构建SE-SimAM-ConvNeXt... 皮肤癌是最致命的癌症之一,对皮肤镜图像进行精确分类尤为关键,然而现有的皮肤镜图像存在形态复杂、样本数量较少的问题,导致现有的自动分类方法难以提取图像特征信息,误判率较高。提出一种改进ConvNeXt的方法,并构建SE-SimAM-ConvNeXt模型。以ConvNeXt为基础网络,加入SimAM无参注意力模块,提升网络的特征提取能力,并在基础网络中引入通道注意力机制,增强ConvNeXt对潜在关键特征的挖掘能力。在训练初始时加入预热机制Cosine Warmup,在该过程中使用余弦函数值进行学习率的衰减,进一步加速ConvNeXt的收敛,提高ConvNeXt模型的分类能力。在HAM10000皮肤数据集上的实验结果表明,该模型的分类准确率、精确度、召回率、特异性分别为92.9%、85.3%、78.0%、97.5%,具有较好的皮肤镜图像分类能力,对皮肤癌病变的辅助诊断有一定程度的应用价值,可帮助皮肤科医生对皮肤癌做进一步的诊断。 展开更多
关键词 皮肤镜图像分类 convnext网络 通道注意力机制 SimAM无参注意力 预热机制
在线阅读 下载PDF
结合改进ConvNeXt网络与知识蒸馏的天气识别 被引量:3
19
作者 刘立波 郗思宇 邓箴 《光学精密工程》 EI CAS CSCD 北大核心 2023年第14期2123-2134,共12页
为提升复杂交通场景下天气识别准确率的同时实现网络轻量化,提出了一种结合改进ConvNeXt网络与知识蒸馏的天气识别方法。首先,在ConvNeXt网络的每组Block特征提取块后加入SimAm注意力机制,构建ConvNeXt_F网络,利用SimAm注意力机制对Bloc... 为提升复杂交通场景下天气识别准确率的同时实现网络轻量化,提出了一种结合改进ConvNeXt网络与知识蒸馏的天气识别方法。首先,在ConvNeXt网络的每组Block特征提取块后加入SimAm注意力机制,构建ConvNeXt_F网络,利用SimAm注意力机制对Block块提取的深层特征进行鉴权并校正权重,有效强化对天气判别性特征的捕获能力;其次,在网络训练过程中将Equalized Focal Loss(EFL)与Mutual-Channel Loss(MCL)采用平均占比的方式进行累加作为总损失函数,一方面利用EFL消除数据不均衡造成的影响,另一方面利用MCL减小同类天气下局部细节特征差异;最后,采用知识蒸馏技术将天气分类知识从ConvNeXt_F网络迁移到轻量级MobileNetV3网络,虽然精度略微损失但网络参数量大幅减少。实验结果表明,与其他算法相比,所提方法在本文构建的宁夏高速公路场景下的天气数据集weath⁃er-traffic和公开的自然天气数据集RSCM2017上准确率分别达到96.22%,84.8%,FPS分别达到157.6 Hz,137.6 Hz,FLOPs和Params仅为0.06 G和2.54 M,识别精度、速度和网络的轻量化较原网络均有提高,能够更好地应用于储存和计算能力受限的实际场景中。 展开更多
关键词 天气识别 convnext网络 注意力机制 知识蒸馏
在线阅读 下载PDF
基于ConvNeXt-Tiny的牡丹花卉分类识别研究 被引量:1
20
作者 齐振岭 刘羿漩 +2 位作者 梁允泉 董苗苗 葛广英 《计算机时代》 2023年第2期16-20,共5页
构建了牡丹花卉图像分类识别数据集,应用ConvNeXt-Tiny模型算法实现了牡丹花卉品种的分类与识别。基于PyQt5设计了显示界面,实现用户交互功能。与其他分类模型相比,基于ConvNeXt-Tiny的牡丹花卉分类识别模型在牡丹花卉图像分类识别数据... 构建了牡丹花卉图像分类识别数据集,应用ConvNeXt-Tiny模型算法实现了牡丹花卉品种的分类与识别。基于PyQt5设计了显示界面,实现用户交互功能。与其他分类模型相比,基于ConvNeXt-Tiny的牡丹花卉分类识别模型在牡丹花卉图像分类识别数据集上的表现非常好,取得的识别准确率高达98.3%,这证明了基于ConvNeXt-Tiny的牡丹花卉分类识别模型的有效性。 展开更多
关键词 牡丹花卉 深度学习 卷积神经网络 convnext-Tiny PyQt5
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部