期刊文献+
共找到288篇文章
< 1 2 15 >
每页显示 20 50 100
Low-Complexity Hardware Architecture for Batch Normalization of CNN Training Accelerator
1
作者 Go-Eun Woo Sang-Bo Park +2 位作者 Gi-Tae Park Muhammad Junaid Hyung-Won Kim 《Computers, Materials & Continua》 2025年第8期3241-3257,共17页
On-device Artificial Intelligence(AI)accelerators capable of not only inference but also training neural network models are in increasing demand in the industrial AI field,where frequent retraining is crucial due to f... On-device Artificial Intelligence(AI)accelerators capable of not only inference but also training neural network models are in increasing demand in the industrial AI field,where frequent retraining is crucial due to frequent production changes.Batch normalization(BN)is fundamental to training convolutional neural networks(CNNs),but its implementation in compact accelerator chips remains challenging due to computational complexity,particularly in calculating statistical parameters and gradients across mini-batches.Existing accelerator architectures either compromise the training accuracy of CNNs through approximations or require substantial computational resources,limiting their practical deployment.We present a hardware-optimized BN accelerator that maintains training accuracy while significantly reducing computational overhead through three novel techniques:(1)resourcesharing for efficient resource utilization across forward and backward passes,(2)interleaved buffering for reduced dynamic random-access memory(DRAM)access latencies,and(3)zero-skipping for minimal gradient computation.Implemented on a VCU118 Field Programmable Gate Array(FPGA)on 100 MHz and validated using You Only Look Once version 2-tiny(YOLOv2-tiny)on the PASCALVisualObjectClasses(VOC)dataset,our normalization accelerator achieves a 72%reduction in processing time and 83%lower power consumption compared to a 2.4 GHz Intel Central Processing Unit(CPU)software normalization implementation,while maintaining accuracy(0.51%mean Average Precision(mAP)drop at floating-point 32 bits(FP32),1.35%at brain floating-point 16 bits(bfloat16)).When integrated into a neural processing unit(NPU),the design demonstrates 63%and 97%performance improvements over AMD CPU and Reduced Instruction Set Computing-V(RISC-V)implementations,respectively.These results confirm that our proposed BN hardware design enables efficient,high-accuracy,and power-saving on-device training for modern CNNs.Our results demonstrate that efficient hardware implementation of standard batch normalization is achievable without sacrificing accuracy,enabling practical on-device CNN training with significantly reduced computational and power requirements. 展开更多
关键词 Convolutional neural network normalization batch normalization deep learning TRAINING HARDWARE
在线阅读 下载PDF
改进型的batch normalization:BNalpha 被引量:2
2
作者 罗晨辉 孙洪飞 《计算机应用研究》 CSCD 北大核心 2021年第6期1870-1873,共4页
针对提高卷积神经网络(convolutional neural network,CNN)在图像识别方向的训练速度和识别准确率进行了研究。从BN(batch normalization)着手,通过新增参数对BN的仿射变换进行具体调节,并提出一种改进型的BN——BNalpha。除去带有某些... 针对提高卷积神经网络(convolutional neural network,CNN)在图像识别方向的训练速度和识别准确率进行了研究。从BN(batch normalization)着手,通过新增参数对BN的仿射变换进行具体调节,并提出一种改进型的BN——BNalpha。除去带有某些特定结构的神经网络,相对于原始的BN,BNalpha可以在不增加运算复杂度的前提下,提升神经网络的训练速度和识别准确度。通过对BN仿射变换的参数进行分析和对比,尝试解释BN在网络中的运行机理,并以此说明BNalpha相对于BN的改进为何生效。最后通过CIFAR-10和CIFAR-100数据集以及不同类型的卷积神经网络结构对BNalpha和BN进行对比实验分析,实验结果表明BNalpha能够进一步提升训练速度和识别准确度。 展开更多
关键词 卷积神经网络 深度学习 图像识别 批标准化
在线阅读 下载PDF
尺度因子正则化BN算法
3
作者 刘向阳 汪琦 《计算机应用与软件》 北大核心 2024年第6期243-249,共7页
针对进一步提升深度神经网络训练的收敛速度问题,借鉴批规范化(Batch Normalization,BN)算法的特点,提出尺度因子正则化BN算法。通过对BN层中的可学习尺度因子γ施加L2正则化,使得γ得到衰减,进而参数的梯度上界降低,优化空间更加平滑... 针对进一步提升深度神经网络训练的收敛速度问题,借鉴批规范化(Batch Normalization,BN)算法的特点,提出尺度因子正则化BN算法。通过对BN层中的可学习尺度因子γ施加L2正则化,使得γ得到衰减,进而参数的梯度上界降低,优化空间更加平滑。基于VGG16 Net与AlexNet,在cifar10、cifar100及裂缝图像数据集上进行该算法与BN算法的图像分类对比实验,结果表明该算法不仅提高了网络训练的收敛速度,而且在相同训练次数下提高了准确率。 展开更多
关键词 批规范化 尺度因子 L2正则化 图像分类
在线阅读 下载PDF
结合AHP和BN的桥梁桩基破坏评估模型构建及应用 被引量:1
4
作者 李向玉 《黑龙江交通科技》 2024年第1期83-86,90,共5页
为了更好地对龙惠高速段的桥梁桩基破坏程度进行评估,实现桥梁安全稳定,达到对桥梁桩基的安全管理与及时维修的目的,在对桥梁桩基破坏勘测的基础上,结合层次分析法和批量归一化建立评估模型并对桥梁桩基破坏进行评估。分析表明,水位超过... 为了更好地对龙惠高速段的桥梁桩基破坏程度进行评估,实现桥梁安全稳定,达到对桥梁桩基的安全管理与及时维修的目的,在对桥梁桩基破坏勘测的基础上,结合层次分析法和批量归一化建立评估模型并对桥梁桩基破坏进行评估。分析表明,水位超过4 m后,桥梁桩基的损伤系数随着水位的增高而增高,且水位为7 m时,桥梁桩基的损伤系数为1.295。此外,桥梁桩基的损伤系数还随着渗透率的增加而增加,当渗透率为3.0%时,桥梁桩基的损伤系数相比于渗透率为0.5%时提高了0.11。 展开更多
关键词 水下桩基 层次分析法 批量归一化 病害检测 损伤评估
在线阅读 下载PDF
基于改进GAN的人机交互手势行为识别方法
5
作者 张富强 白筠妍 穆慧 《郑州大学学报(工学版)》 北大核心 2025年第2期43-50,共8页
为改善现有手势识别算法需要大量训练数据的现状,针对识别准确率不高、识别过程复杂等问题,基于生成式对抗网络(GAN)和变分自编码器,引入标签信息,提出一种基于改进GAN模型的人机交互手势行为识别方法。首先,在编码器和解码器中分别添... 为改善现有手势识别算法需要大量训练数据的现状,针对识别准确率不高、识别过程复杂等问题,基于生成式对抗网络(GAN)和变分自编码器,引入标签信息,提出一种基于改进GAN模型的人机交互手势行为识别方法。首先,在编码器和解码器中分别添加改进InceptionV2和InceptionV2-trans结构增强模型的特征还原能力;其次,在各组成网络中进行条件批量归一化(CBN)处理改善过拟合,以Mish激活函数代替ReLU函数提升网络性能;最后,通过实验证明该方法能够以较少的样本获得100%的分类准确率,且收敛时间短,验证了该方法的可靠性。 展开更多
关键词 人机交互 生成对抗网络 变分自编码器 手势识别 条件批量归一化
在线阅读 下载PDF
基于批归一化卷积神经网络算法的图像分类识别方法研究
6
作者 谢志明 谷芳 《软件工程》 2025年第5期21-26,共6页
为解决传统神经网络在CIFAR-10(Canadian Institute For Advanced Research)数据集上进行图像分类识别时,存在的模型准确率较低和训练过程易发生过拟合现象等问题,提出了一种将卷积神经网络和批归一化相结合的新神经网络结构构建方法。... 为解决传统神经网络在CIFAR-10(Canadian Institute For Advanced Research)数据集上进行图像分类识别时,存在的模型准确率较低和训练过程易发生过拟合现象等问题,提出了一种将卷积神经网络和批归一化相结合的新神经网络结构构建方法。该方法首先对数据集进行数据增强和边界填充处理,其次对典型的CNN(Convolutional Neural Networks)网络结构进行改进,移除了卷积层组中的池化层,仅保留了卷积层和BN(Batch Normalization)层,并适量增加卷积层组。为了验证模型的有效性和准确性,设计了6组不同的神经网络结构对模型进行训练。实验结果表明,在相同训练周期数下,推荐使用的model-6模型表现最佳,测试准确率高达90.17%,突破了长期以来经典CNN在CIFAR-10数据集上难于达到90%准确率的瓶颈,为图像分类识别提供了新的解决方案和模型参考。 展开更多
关键词 图像分类识别 卷积神经网络 批归一化 数据增强 边界填充
在线阅读 下载PDF
一种基于注意力机制的BERT-CNN-GRU检测方法 被引量:3
7
作者 郑雅洲 刘万平 黄东 《计算机工程》 北大核心 2025年第1期258-268,共11页
针对现有检测方法对短域名检测性能普遍较差的问题,提出一种BERT-CNN-GRU结合注意力机制的检测方法。通过BERT提取域名的有效特征和字符间组成逻辑,根据并行的融合简化注意力的卷积神经网络(CNN)和基于多头注意力机制的门控循环单元(GRU... 针对现有检测方法对短域名检测性能普遍较差的问题,提出一种BERT-CNN-GRU结合注意力机制的检测方法。通过BERT提取域名的有效特征和字符间组成逻辑,根据并行的融合简化注意力的卷积神经网络(CNN)和基于多头注意力机制的门控循环单元(GRU)提取域名深度特征。CNN使用n-gram排布的方式提取不同层次的域名信息,并采用批标准化(BN)对卷积结果进行优化。GRU能够更好地获取前后域名的组成差异,多头注意力机制在捕获域名内部的组成关系方面表现出色。将并行检测网络输出的结果进行拼接,最大限度地发挥两种网络的优势,并采用局部损失函数聚焦域名分类问题,提高分类性能。实验结果表明,该方法在二分类上达到了最优效果,在短域名多分类数据集上15分类的加权F1值达到了86.21%,比BiLSTM-Seq-Attention模型提高了0.88百分点,在UMUDGA数据集上50分类的加权F1值达到了85.51%,比BiLSTM-Seq-Attention模型提高了0.45百分点。此外,该模型对变体域名和单词域名生成算法(DGA)检测性能较好,具有处理域名数据分布不平衡的能力和更广泛的检测能力。 展开更多
关键词 恶意短域名 BERT预训练 批标准化 注意力机制 门控循环单元 并行卷积神经网络
在线阅读 下载PDF
基于改进残差网络的罗氏沼虾发声信号分类方法 被引量:1
8
作者 曹正良 蒋千庆 +4 位作者 姜珊 王子贤 李钊丞 靳雨雪 胡庆松 《水产学报》 北大核心 2025年第7期204-214,共11页
【目的】水产养殖中虾类行为的精准识别对饲料投喂优化和疾病预防管理具有重要意义。针对传统光学监测方法在复杂养殖环境中的局限性,从被动声学监测角度,针对虾类在复杂养殖环境中传统光学监测方法的局限性。【方法】本研究结合被动声... 【目的】水产养殖中虾类行为的精准识别对饲料投喂优化和疾病预防管理具有重要意义。针对传统光学监测方法在复杂养殖环境中的局限性,从被动声学监测角度,针对虾类在复杂养殖环境中传统光学监测方法的局限性。【方法】本研究结合被动声学技术获取罗氏沼虾的不同行为发声信息,提出了一种基于深度学习的罗氏沼虾行为分类方法。通过采集摄食、移动及打斗三种行为的发声信号,将其转换为Mel频谱图作为数据集,并比较了CNN、ResNet18和VGG16神经网络模型分类效果。【结果】ResNet18的识别准确率(97.67%)优于VGG16和CNN;在引入批量归一化(Batch Normalization,BN)算法后,BN-ResNet18的识别准确率提升至99.00%,较原始ResNet18提高了1.33%。此外,BNResNet18在14.0~44.1 kHz频段内表现出最优的分类性能,进一步证明了残差连接与BN模块的协同优化能够有效提升模型性能。【结论】BN-ResNet18在复杂行为发声信号特征建模分类中展现出较高的准确性和稳健性。本研究为基于虾类行为发声信号的监测识别提供了技术支持,对水产养殖的智能化研发具有潜在应用价值。 展开更多
关键词 罗氏沼虾 Mel频谱图 神经网络 批量归一化 发声信号
原文传递
遥感影像场景识别的贝叶斯共轭批次归一化方法
9
作者 虞欣 于家钰 +2 位作者 郑肇葆 孟令奎 李林宜 《武汉大学学报(信息科学版)》 北大核心 2025年第9期1838-1847,共10页
归一化方法作为特征预处理的关键部分,在浅学习和深度学习中都是至关重要的。针对批次归一化方法中存在对批次样本容量依赖较大的问题,当前的优化思路主要是从样本信息的其他维度(如通道、层、时间等)来弥补批次样本容量较小的不足。从... 归一化方法作为特征预处理的关键部分,在浅学习和深度学习中都是至关重要的。针对批次归一化方法中存在对批次样本容量依赖较大的问题,当前的优化思路主要是从样本信息的其他维度(如通道、层、时间等)来弥补批次样本容量较小的不足。从贝叶斯理论的角度出发,通过将总体信息、先验信息和样本信息以科学、合理的融合方式来弥补批次样本容量不足的缺陷,从而可以更加准确地估计样本均值和样本方差,使得归一化后的特征落入最佳的非饱和区域,以便更好地反映整个特征空间的原始表征,进而深度学习模型可以达到最佳的特征表达能力。实验与分析表明,所提的贝叶斯共轭批次归一化方法可行且有效,在NWPU-RESISC45数据集上,其分类精度比批次归一化方法高5.64%。得益于总体信息和先验信息,所提方法受样本容量的影响较小。 展开更多
关键词 场景识别 批次归一化 共轭 贝叶斯
原文传递
基于BN优化SNGAN的自适应音频隐写 被引量:4
10
作者 岳峰 朱慧 +1 位作者 苏兆品 张国富 《计算机学报》 EI CAS CSCD 北大核心 2022年第2期427-440,共14页
音频隐写术是将秘密信息(如文本、图像、音频、视频等)隐藏到载体音频中,不仅能够保证秘密信息本身的安全,而且能保证秘密信息传输的安全,已成为信息隐藏领域的研究热点之一.近年来,基于深度学习的音频隐写分析技术能够在充分挖掘隐写... 音频隐写术是将秘密信息(如文本、图像、音频、视频等)隐藏到载体音频中,不仅能够保证秘密信息本身的安全,而且能保证秘密信息传输的安全,已成为信息隐藏领域的研究热点之一.近年来,基于深度学习的音频隐写分析技术能够在充分挖掘隐写深度特征的基础上实现高效的隐写检测,导致隐写术的安全性降低,为隐写术带来了新的挑战.不过,生成对抗网络(Generative Adversarial Networks,GAN)的迅速发展,为音频隐写提供了一个新的解决思路.但是,现有基于GAN的音频隐写在隐藏容量、不可感知性、抗检测性上很难达到均衡,不能满足实际应用需求.为此,本文在网络结构单元上将批处理归一化与频谱归一化相结合,提出了一种基于优化频谱归一化GAN的自适应音频隐写方法(Batch Normalization optimized Spectral Normalization GAN,BNSNGAN).具体来说,首先设计了一种隐写编码器,基于时域补零法对秘密音频进行预处理,实现了任意长度秘密音频的嵌入,提高了音频隐写的不可感知性;其次设计了一种具有并行结构的隐写提取器,用不同的卷积核进行去卷积,提高了秘密信息提取的准确率;最后设计了一种以交叉熵为损失函数的隐写分析器,提高了音频隐写的抗检测性.对比实验结果表明,通过编码器、提取器和隐写分析器这三个网络的互相学习,本文所提BNSNGAN不仅可以实现任意长度秘密音频的嵌入,具有较高的秘密信息提取率,并且在隐写容量、不可感知性和抗检测性上可以达到一个较好的均衡. 展开更多
关键词 音频隐写 生成对抗网络 频谱归一化 批处理归一化 自适应隐写
在线阅读 下载PDF
基于脉冲神经元膜电位增量的数据分布统计量及批归一化
11
作者 李炜奇 陈云华 +1 位作者 陈平华 朱春佳 《计算机应用研究》 北大核心 2025年第8期2341-2347,共7页
脉冲神经网络(SNN)因其具有更好的生物解释性、强大的时空信息表征能力,以及超低功耗和延迟特性而受到广泛关注。然而SNN在训练算法、超参数设置、架构设计研究等方面还存在不少挑战性的问题。针对现有SNN归一化(BN)方法无法有效处理时... 脉冲神经网络(SNN)因其具有更好的生物解释性、强大的时空信息表征能力,以及超低功耗和延迟特性而受到广泛关注。然而SNN在训练算法、超参数设置、架构设计研究等方面还存在不少挑战性的问题。针对现有SNN归一化(BN)方法无法有效处理时间依赖性的问题,通过分析膜电位增量在时间步上的传播,提出按时间步逐步计算膜电位增量的时空积累量;以此为数据分布的统计量分别对各个时间步数据进行归一化,并提出按照指数移动平均计算膜电位增量的时空积累量,形成一种带衰减因子的时空累积批归一化(spatio-temporal attenuation cumulative batch normalization,STBN)方法。在CIFAR-10和CIFAR-100及CIFAR10-DVS数据集上的实验结果表明,所提方法能显著提升网络分类精度并降低时延。特别是在CIFAR-100数据集上仅使用两个时间步就获得了76.30%的精度,相比同类模型的先前最优算法精度提升了3.43%。 展开更多
关键词 脉冲神经网络 批归一化 脉冲时间依赖性 脉冲神经网络训练算法
在线阅读 下载PDF
基于AE-BNDNN模型的入侵检测方法 被引量:8
12
作者 江颉 高甲 陈铁明 《小型微型计算机系统》 CSCD 北大核心 2019年第8期1713-1717,共5页
基于深度学习的网络入侵检测系统中大量的冗余数据特征会加大模型的训练时间并降低训练效果,针对此问题,提出了AE-BNDNN入侵检测模型.首先利用自编码器网络(Auto-Encoder,AE)对入侵检测数据进行特征降维,去除冗余特征,而后在深度神经网... 基于深度学习的网络入侵检测系统中大量的冗余数据特征会加大模型的训练时间并降低训练效果,针对此问题,提出了AE-BNDNN入侵检测模型.首先利用自编码器网络(Auto-Encoder,AE)对入侵检测数据进行特征降维,去除冗余特征,而后在深度神经网络隐藏层添加批量规范化层,作为训练入侵检测数据特征降维后的分类器,最后采用多层网格搜索算法对AEBNDNN模型参数进行自动优化,寻找模型的最优参数.在NSL-KDD数据集上的实验结果表明,采用多层网格搜索算法优化的AE-BNDNN模型取得了较高的分类准确率和训练速度. 展开更多
关键词 入侵检测 自编码器 深度神经网络 批量归一化 网格搜索
在线阅读 下载PDF
基于BN-DBN的网络安全态势要素获取机制 被引量:3
13
作者 朱江 王婷婷 《计算机应用》 CSCD 北大核心 2019年第A01期100-104,共5页
为了提高深度信念网络(DBN)的收敛速度以及提高小样本条件下的态势要素的获取精度,提出一种基于批量归一化(BN)的DBN安全态势要素获取机制。一方面在DBN中加入BN以解决梯度消失问题并稳定网络训练;另一方面在DBN输出层提出一种改进的主... 为了提高深度信念网络(DBN)的收敛速度以及提高小样本条件下的态势要素的获取精度,提出一种基于批量归一化(BN)的DBN安全态势要素获取机制。一方面在DBN中加入BN以解决梯度消失问题并稳定网络训练;另一方面在DBN输出层提出一种改进的主动学习(IAL)算法反向微调DBN,在每次迭代中主动选择训练样本来平衡样本种类。理论分析和实验数据仿真结果表明该机制能够解决DBN收敛速度过慢、梯度消失以及小类样本分类不准确问题,同时在获取精度、收敛速度以及算法复杂度上优于未改进的DBN态势要素获取机制。 展开更多
关键词 态势要素 深度信念网络 批量归一化 主动学习
在线阅读 下载PDF
基于VGG19-SK模型的机械密封启停状态识别
14
作者 刘伟 翟志兴 +1 位作者 张书尧 李双喜 《机电工程》 北大核心 2025年第1期23-32,50,共11页
机械密封在机械设备的的启停过程中,时常会发生失效。针对这一问题,提出了一种新的深度学习模型VGG19-SK,并将其应用于机械密封的启停状态识别中。首先,在机械密封启停过程中,利用密封声发射信号试验台获取了试验数据,这些数据为训练深... 机械密封在机械设备的的启停过程中,时常会发生失效。针对这一问题,提出了一种新的深度学习模型VGG19-SK,并将其应用于机械密封的启停状态识别中。首先,在机械密封启停过程中,利用密封声发射信号试验台获取了试验数据,这些数据为训练深度学习模型提供了基础;然后,在传统VGG19基础之上进行了改进,增加了SK卷积层、全局平均池化层和批归一化(BN)层,这些改进显著减少了模型的参数数量,降低了对硬件设备的要求,同时提升了模型的性能;最后,在模型训练过程中,对VGG19-SK模型进行了细致的调优,采用准确率曲线、损失值曲线以及混淆矩阵等指标,与其他模型进行了对比,验证了VGG19-SK模型的有效性,突出了VGG19-SK模型的优越性。研究结果表明:在机械密封启停阶段8种分类识别中,VGG19-SK取得了86.67%的准确率,比传统VGG19提升了约2.19%;同时,模型的训练参数减少了83.74%,模型总体大小缩减了约80%。该VGG19-SK机械密封状态识别模型在兼顾准确率的同时,保证了硬件资源受限状况下的运行能力,为进一步开发基于深度神经网络模型的机械密封状态故障诊断系统奠定了基础。 展开更多
关键词 机械密封 深度学习模型 声发射信号 SK卷积层 全局平均池化层 批归一化层 VGG19-SK模型
在线阅读 下载PDF
基于改进降噪自编码器的声发射信号去噪研究
15
作者 周俊 代劲 +2 位作者 岑远遥 刘书俊 夏斌 《现代电子技术》 北大核心 2025年第19期1-8,共8页
降噪自编码器能采取无监督学习方式,基于神经网络方法从有噪声的信号重构出原始信号达到去噪的目的,能够改进滤波器与小波分析在声发射信号消噪中由于参数设置依赖经验而带来消噪性能不佳、泛化性差等问题。针对降噪自编码器在输入数据... 降噪自编码器能采取无监督学习方式,基于神经网络方法从有噪声的信号重构出原始信号达到去噪的目的,能够改进滤波器与小波分析在声发射信号消噪中由于参数设置依赖经验而带来消噪性能不佳、泛化性差等问题。针对降噪自编码器在输入数据分布不均时可能产生梯度消失和收敛速度变慢问题,提出一种基于改进降噪自编码器的声发射信号去噪模型,通过在降噪自编码器链接批处理层和回归层对降噪自编码器结构进行改进,对常用激活函数进行分析,采集3000个腐蚀声发射信号样本作为训练集和测试集,对声发射信号进行Z-score标准化预处理,采用改进降噪自编码器对腐蚀声发射信号进行去噪实验。实验结果表明,当隐含层神经元数为300,激活函数为Leaky ReLU时,改进DAE去噪性能较优,与小波阈值去噪法相比有更优的去噪性能,对于声发射信号分析处理具有重要意义。 展开更多
关键词 声发射 去噪 自编码器 批处理层 回归层 无监督学习 Z-score标准化 Leaky ReLU
在线阅读 下载PDF
基于改进的ResNet网络和特征融合的目标跟踪算法
16
作者 孟伟君 孙思维 马素刚 《现代电子技术》 北大核心 2025年第13期105-112,共8页
为了增强利用残差网络提取的目标特征,在ATOM50算法基础上提出了一种基于改进的ResNet网络和特征融合的目标跟踪算法。在ResNet-50骨干网络中使用结合无批处理归一化和位置感知循环卷积的增强瓶颈块,有效增强了全局信息的捕获能力,并减... 为了增强利用残差网络提取的目标特征,在ATOM50算法基础上提出了一种基于改进的ResNet网络和特征融合的目标跟踪算法。在ResNet-50骨干网络中使用结合无批处理归一化和位置感知循环卷积的增强瓶颈块,有效增强了全局信息的捕获能力,并减缓了跟踪过程中的偏移累积;对提取的特征采用注意力特征融合模块,通过融合浅层特征的细节和深层特征的语义信息,进一步增强特征对目标的表达能力。利用OTB2015、VOT2018和LaSOT数据集对所提算法进行验证,在OTB2015上成功率和精确度分别达到了70.2%和91.1%,与基准算法ATOM50相比,成功率和精确度分别提升了1.2%和1.5%;在VOT2018数据集上,期望平均重叠率提升了4.4%;在LaSOT数据集上,成功率和精确度分别提升了2.4%和2.9%;在OTB2015数据集上的平均跟踪速度达到34.3 f/s,确保了实时跟踪。 展开更多
关键词 深度学习 视觉跟踪 Siamese网络 批量归一化 注意力机制 改进ResNet网络
在线阅读 下载PDF
基于改进Unet的地震勘探工区建筑物分割方法研究 被引量:1
17
作者 王雅如 王昀 江勇勇 《现代电子技术》 北大核心 2025年第3期135-140,共6页
在地震勘探工区内自动分割建筑物目标对野外物理点布设和避障等工作具有重要意义。针对已有建筑物分割算法存在目标边界分割不完整和小目标分割不准确的问题,提出基于改进Unet的地震勘探工区建筑物分割方法。该方法在原始Unet网络结构... 在地震勘探工区内自动分割建筑物目标对野外物理点布设和避障等工作具有重要意义。针对已有建筑物分割算法存在目标边界分割不完整和小目标分割不准确的问题,提出基于改进Unet的地震勘探工区建筑物分割方法。该方法在原始Unet网络结构基础上,首先增加特征批标准化网络层,避免网络训练过程中的梯度消失问题;然后增加多尺度卷积特征融合技术,增强网络特征表达能力;最后使用Diceloss损失函数优化网络参数。实验结果表明,相比于原始Unet,分割IoU提高了约7%,目标边界分割更加完整准确,对小目标也有较好的分割效果,同时对背景环境变化具有更强的适应性。 展开更多
关键词 地震勘探工区 建筑物分割 Unet 多尺度卷积特征融合 批标准化 Diceloss
在线阅读 下载PDF
基于改进CNN-SVM和机器视觉的苹果自动分级方法研究
18
作者 张瑞琪 杨宁 张一枫 《食品与机械》 北大核心 2025年第9期75-81,共7页
[目的]解决现有苹果自动分级方法存在的分级精度差和效率低等问题。[方法]在基于机器视觉的苹果自动分级系统基础上,提出一种结合卷积神经网络、全局平均池化、批量归一化和支持向量机的苹果自动分级方法。通过全局平均池化,降低模型参... [目的]解决现有苹果自动分级方法存在的分级精度差和效率低等问题。[方法]在基于机器视觉的苹果自动分级系统基础上,提出一种结合卷积神经网络、全局平均池化、批量归一化和支持向量机的苹果自动分级方法。通过全局平均池化,降低模型参数量。通过批量归一化技术提高模型的泛化能力。通过支持向量机替换卷积神经网络的Softmax分类器,提高分类的准确性,并进行验证实验。[结果]与常规的苹果分级方法相比,试验方法在苹果自动分级中具有更高的检测准确和效率,分级准确率达到98.50%,分级速度达到209帧/s,满足食品加工自动化要求。[结论]通过优化现有苹果自动分级方法,在一定程度上提高了检测性能。 展开更多
关键词 苹果 自动分级 卷积神经网络 支持向量机 全局平均池化 批量归一化
在线阅读 下载PDF
基于深度学习的无标签超分辨率土地覆盖制图研究
19
作者 汤媛媛 严恩萍 +3 位作者 唐玉宾 聂小力 聂平静 亓梦茹 《西南林业大学学报(自然科学)》 北大核心 2025年第5期147-154,共8页
通过整合标签超分辨率(SR)和实例批量归一化网络(IBN-Net),在无本地高分辨率标签的情况下,实现了福建省光泽县的2m分辨率土地覆盖制图,提出了一种基于深度学习的无标签土地覆盖制图方法。结果表明:利用改进的全卷积神经网络(FCN)模型能... 通过整合标签超分辨率(SR)和实例批量归一化网络(IBN-Net),在无本地高分辨率标签的情况下,实现了福建省光泽县的2m分辨率土地覆盖制图,提出了一种基于深度学习的无标签土地覆盖制图方法。结果表明:利用改进的全卷积神经网络(FCN)模型能够实现标签超分辨率,将低分辨率标签提升至高分辨率,有效提高分类精度;IBN-Net网络增强了模型的泛化能力,显著提升跨域应用的效果。相比于内源低分辨率标签,使用高精度的外源标签使模型在光泽县的整体准确率提高2.55%,达到85.48%。本方法在无匹配标签条件下,显著提升土地覆盖制图的精度,可为区域生态监测和管理提供有效的技术支持。 展开更多
关键词 土地覆盖制图 标签超分辨率 深度学习 FCN网络 Ibn网络
在线阅读 下载PDF
基于深度学习的红外与可见光图像匹配
20
作者 熊子恒 张轩雄 《电子科技》 2025年第9期1-8,共8页
基于卷积神经网络(Convolutional Neural Network,CNN)的图像相似度检测算法对图像特征的表达能力较差,且只适用于单一特定任务,易出现过拟合风险。针对该问题,文中提出一种基于深度学习的红外与可见光图片匹配方法(Deep Learning-based... 基于卷积神经网络(Convolutional Neural Network,CNN)的图像相似度检测算法对图像特征的表达能力较差,且只适用于单一特定任务,易出现过拟合风险。针对该问题,文中提出一种基于深度学习的红外与可见光图片匹配方法(Deep Learning-based Image Matching of Infrared and Visible Image,DLIVM)。采用批通道归一化(Batch Channel Normalization,BCN)、注意力机制、度量学习和Frobenius范数等技术提升图像匹配性能和泛化能力。使用将批归一化层(Batch Normalization,BN)改进为BCN的ResNet-50(Residual Neural Network-50)网络作为主干网络提取图片特征,同时在残差单元内部加入注意力机制。使用二元交叉熵损失和度量学习相结合的方法构建目标函数,提升特征表示判别能力。使用Frobenius范数对模型参数进行正则化,以防止过拟合。结果表明,在3个广泛使用的红外与可见光数据集上,相较于对比方法,DLIVM方法的准确率分别提高了3.30%、0.86%、2.00%、7.50%、1.50%、0.69%。 展开更多
关键词 图像匹配 卷积神经网络 批通道归一化 异源图像匹配 注意力机制 度量学习 深度学习 模态不变性
在线阅读 下载PDF
上一页 1 2 15 下一页 到第
使用帮助 返回顶部