期刊文献+
共找到274篇文章
< 1 2 14 >
每页显示 20 50 100
Fast recognition using convolutional neural network for the coal particle density range based on images captured under multiple light sources 被引量:6
1
作者 Feiyan Bai Minqiang Fan +1 位作者 Hongli Yang Lianping Dong 《International Journal of Mining Science and Technology》 SCIE EI CAS CSCD 2021年第6期1053-1061,共9页
A method based on multiple images captured under different light sources at different incident angles was developed to recognize the coal density range in this study.The innovation is that two new images were construc... A method based on multiple images captured under different light sources at different incident angles was developed to recognize the coal density range in this study.The innovation is that two new images were constructed based on images captured under four single light sources.Reconstruction image 1 was constructed by fusing greyscale versions of the original images into one image,and Reconstruction image2 was constructed based on the differences between the images captured under the different light sources.Subsequently,the four original images and two reconstructed images were input into the convolutional neural network AlexNet to recognize the density range in three cases:-1.5(clean coal) and+1.5 g/cm^(3)(non-clean coal);-1.8(non-gangue) and+1.8 g/cm^(3)(gangue);-1.5(clean coal),1.5-1.8(middlings),and+1.8 g/cm^(3)(gangue).The results show the following:(1) The reconstructed images,especially Reconstruction image 2,can effectively improve the recognition accuracy for the coal density range compared with images captured under single light source.(2) The recognition accuracies for gangue and non-gangue,clean coal and non-clean coal,and clean coal,middlings,and gangue reached88.44%,86.72% and 77.08%,respectively.(3) The recognition accuracy increases as the density moves further away from the boundary density. 展开更多
关键词 COAL Density range Image Multiple light sources convolutional neural network
在线阅读 下载PDF
M2ANet:Multi-branch and multi-scale attention network for medical image segmentation
2
作者 Wei Xue Chuanghui Chen +3 位作者 Xuan Qi Jian Qin Zhen Tang Yongsheng He 《Chinese Physics B》 2025年第8期547-559,共13页
Convolutional neural networks(CNNs)-based medical image segmentation technologies have been widely used in medical image segmentation because of their strong representation and generalization abilities.However,due to ... Convolutional neural networks(CNNs)-based medical image segmentation technologies have been widely used in medical image segmentation because of their strong representation and generalization abilities.However,due to the inability to effectively capture global information from images,CNNs can easily lead to loss of contours and textures in segmentation results.Notice that the transformer model can effectively capture the properties of long-range dependencies in the image,and furthermore,combining the CNN and the transformer can effectively extract local details and global contextual features of the image.Motivated by this,we propose a multi-branch and multi-scale attention network(M2ANet)for medical image segmentation,whose architecture consists of three components.Specifically,in the first component,we construct an adaptive multi-branch patch module for parallel extraction of image features to reduce information loss caused by downsampling.In the second component,we apply residual block to the well-known convolutional block attention module to enhance the network’s ability to recognize important features of images and alleviate the phenomenon of gradient vanishing.In the third component,we design a multi-scale feature fusion module,in which we adopt adaptive average pooling and position encoding to enhance contextual features,and then multi-head attention is introduced to further enrich feature representation.Finally,we validate the effectiveness and feasibility of the proposed M2ANet method through comparative experiments on four benchmark medical image segmentation datasets,particularly in the context of preserving contours and textures. 展开更多
关键词 medical image segmentation convolutional neural network multi-branch attention multi-scale feature fusion
原文传递
Explainable Diabetic Retinopathy Detection Using a Distributed CNN and LightGBM Framework
3
作者 Pooja Bidwai Shilpa Gite +1 位作者 Biswajeet Pradhan Abdullah Almari 《Computers, Materials & Continua》 2025年第8期2645-2676,共32页
Diabetic Retinopathy(DR)is a critical disorder that affects the retina due to the constant rise in diabetics and remains the major cause of blindness across the world.Early detection and timely treatment are essential... Diabetic Retinopathy(DR)is a critical disorder that affects the retina due to the constant rise in diabetics and remains the major cause of blindness across the world.Early detection and timely treatment are essential to mitigate the effects of DR,such as retinal damage and vision impairment.Several conventional approaches have been proposed to detect DR early and accurately,but they are limited by data imbalance,interpretability,overfitting,convergence time,and other issues.To address these drawbacks and improve DR detection accurately,a distributed Explainable Convolutional Neural network-enabled Light Gradient Boosting Machine(DE-ExLNN)is proposed in this research.The model combines an explainable Convolutional Neural Network(CNN)and Light Gradient Boosting Machine(LightGBM),achieving highly accurate outcomes in DR detection.LightGBM serves as the detection model,and the inclusion of an explainable CNN addresses issues that conventional CNN classifiers could not resolve.A custom dataset was created for this research,containing both fundus and OCTA images collected from a realtime environment,providing more accurate results compared to standard conventional DR datasets.The custom dataset demonstrates notable accuracy,sensitivity,specificity,and Matthews Correlation Coefficient(MCC)scores,underscoring the effectiveness of this approach.Evaluations against other standard datasets achieved an accuracy of 93.94%,sensitivity of 93.90%,specificity of 93.99%,and MCC of 93.88%for fundus images.For OCTA images,the results obtained an accuracy of 95.30%,sensitivity of 95.50%,specificity of 95.09%,andMCC of 95%.Results prove that the combination of explainable CNN and LightGBMoutperforms othermethods.The inclusion of distributed learning enhances the model’s efficiency by reducing time consumption and complexity while facilitating feature extraction. 展开更多
关键词 Diabetic retinopathy explainable convolutional neural network light gradient boosting machine fundus image custom dataset
在线阅读 下载PDF
Intelligent Fusion of Infrared and Visible Image Data Based on Convolutional Sparse Representation and Improved Pulse-Coupled Neural Network 被引量:3
4
作者 Jingming Xia Yi Lu +1 位作者 Ling Tan Ping Jiang 《Computers, Materials & Continua》 SCIE EI 2021年第4期613-624,共12页
Multi-source information can be obtained through the fusion of infrared images and visible light images,which have the characteristics of complementary information.However,the existing acquisition methods of fusion im... Multi-source information can be obtained through the fusion of infrared images and visible light images,which have the characteristics of complementary information.However,the existing acquisition methods of fusion images have disadvantages such as blurred edges,low contrast,and loss of details.Based on convolution sparse representation and improved pulse-coupled neural network this paper proposes an image fusion algorithm that decompose the source images into high-frequency and low-frequency subbands by non-subsampled Shearlet Transform(NSST).Furthermore,the low-frequency subbands were fused by convolutional sparse representation(CSR),and the high-frequency subbands were fused by an improved pulse coupled neural network(IPCNN)algorithm,which can effectively solve the problem of difficulty in setting parameters of the traditional PCNN algorithm,improving the performance of sparse representation with details injection.The result reveals that the proposed method in this paper has more advantages than the existing mainstream fusion algorithms in terms of visual effects and objective indicators. 展开更多
关键词 Image fusion infrared image visible light image non-downsampling shear wave transform improved PCNN convolutional sparse representation
在线阅读 下载PDF
Deep learning-assisted common temperature measurement based on visible light imaging
5
作者 朱佳仪 何志民 +8 位作者 黄成 曾峻 林惠川 陈福昌 余超群 李燕 张永涛 陈焕庭 蒲继雄 《Chinese Physics B》 SCIE EI CAS CSCD 2024年第8期230-236,共7页
Real-time,contact-free temperature monitoring of low to medium range(30℃-150℃)has been extensively used in industry and agriculture,which is usually realized by costly infrared temperature detection methods.This pap... Real-time,contact-free temperature monitoring of low to medium range(30℃-150℃)has been extensively used in industry and agriculture,which is usually realized by costly infrared temperature detection methods.This paper proposes an alternative approach of extracting temperature information in real time from the visible light images of the monitoring target using a convolutional neural network(CNN).A mean-square error of<1.119℃was reached in the temperature measurements of low to medium range using the CNN and the visible light images.Imaging angle and imaging distance do not affect the temperature detection using visible optical images by the CNN.Moreover,the CNN has a certain illuminance generalization ability capable of detection temperature information from the images which were collected under different illuminance and were not used for training.Compared to the conventional machine learning algorithms mentioned in the recent literatures,this real-time,contact-free temperature measurement approach that does not require any further image processing operations facilitates temperature monitoring applications in the industrial and civil fields. 展开更多
关键词 convolutional neural network visible light image temperature measurement low-to-medium-range temperatures
原文传递
Mapping local-scale working population and daytime population densities using points-of-interest and nighttime light satellite imageries
6
作者 Yeran Sun Jing Xie +2 位作者 Yu Wang Ting On Chan Zhao-Yong Sun 《Geo-Spatial Information Science》 CSCD 2024年第6期1852-1867,共16页
In this study,we proposed a multi-source approach for mapping local-scale population density of England.Specifically,we mapped both the working and daytime population densities by integrating the multi-source data suc... In this study,we proposed a multi-source approach for mapping local-scale population density of England.Specifically,we mapped both the working and daytime population densities by integrating the multi-source data such as residential population density,point-of-interest density,point-of-interest category mix,and nighttime light intensity.It is demonstrated that combining remote sensing and social sensing data provides a plausible way to map annual working or daytime population densities.In this paper,we trained models with England-wide data and subsequently tested these models with Wales-wide data.In addition,we further tested the models with England-wide data at a higher level of spatial granularity.Particularly,the random forest and convolutional neural network models were adopted to map population density.The estimated results and validation suggest that the three built models have high prediction accuracies at the local authority district level.It is shown that the convolutional neural network models have the greatest prediction accuracies at the local authority district level though they are most time-consuming.The models trained with the data at the local authority district level are less appropriately applicable to test data at a higher level of spatial granularity.The proposed multi-source approach performs well in mapping local-scale population density.It indicates that combining remote sensing and social sensing data is advantageous to mapping socioeconomic variables. 展开更多
关键词 Nighttime light imagery point-of-interest working population daytime population convolutional neural network
原文传递
采用卷积神经网络的室内可见光定位方法 被引量:1
7
作者 王亮 孙海燕 《导航定位学报》 北大核心 2025年第1期128-136,共9页
针对多径反射与系统噪声导致室内可见光定位精度下降的问题,提出一种基于扩张卷积网络的室内可见光三维定位方法:基于皮尔森相关性系数对采集的接收信号强度向量进行过滤,删除系统噪声引起的非线性失真接收信号强度向量,以提高训练的神... 针对多径反射与系统噪声导致室内可见光定位精度下降的问题,提出一种基于扩张卷积网络的室内可见光三维定位方法:基于皮尔森相关性系数对采集的接收信号强度向量进行过滤,删除系统噪声引起的非线性失真接收信号强度向量,以提高训练的神经网络精度;然后,将接收信号强度向量集建立的指纹库传入神经网络进行训练,利用神经网络较强的三维空间结构表达能力拟合多径反射和系统噪声下的非线性指纹库。仿真结果表明,在7 m×7 m×3 m的室内环境下,所提方法的平均定位误差可达0.91 cm,其中90%样本的定位误差小于1.17 cm;此外,所提方法的平均定位误差较全连接神经网络和卷积神经网络可分别降低0.82 cm和0.56 cm,证明所提方法在多径反射与系统噪声环境下具有较好的定位性能。 展开更多
关键词 可见光通信系统 室内定位 物联网 卷积神经网络(CNN) 可见光定位
在线阅读 下载PDF
基于跳跃连接神经网络的无监督弱光图像增强算法 被引量:2
8
作者 刘洋 刘思瑞 +1 位作者 徐晓淼 王竹筠 《电子测量与仪器学报》 北大核心 2025年第5期208-216,共9页
针对Zero-DCE网络存在细节丢失和不同亮度区域处理结果出现差异等问题,设计了一种基于增强深度曲线估计网络(EnDCE-Net)的无监督弱光图像增强算法。通过探索弱光图像与未配对的正常光照图像之间的潜在映射关系,实现了对低光照场景下图... 针对Zero-DCE网络存在细节丢失和不同亮度区域处理结果出现差异等问题,设计了一种基于增强深度曲线估计网络(EnDCE-Net)的无监督弱光图像增强算法。通过探索弱光图像与未配对的正常光照图像之间的潜在映射关系,实现了对低光照场景下图像质量的显著改善。首先,提出新的特征提取网络,该网络整合了多个跳跃连接与卷积层,实现低层与高层特征的有效融合,从而学习到弱光图像中的关键特征,增强网络对弱光图像的学习能力。其次,设计一组联合的无参考损失函数,强调优化过程中与亮度相关的特性,从而更有利于图像增强模型的参数更新,提高图像增强的质量和效果。为了验证所提出算法的有效性,在5个公开数据集上进行了对比实验,与次优算法Zero-DCE相比,有参考数据集SICE上的峰值信噪比(PSNR)和结构相似性(SSIM)分别提升了9.4%、21%。无参考数据集LIME、DICM、MEF、NPE上NIQE分别达到了4.04、3.04、3.35、3.83。实验结果表明,所提出算法表现出色,增强后的图像色彩自然,亮度均衡且细节清晰。无论是主观视觉评价还是客观定量指标,均显著优于对比算法,充分体现了在图像增强效果上的卓越性和先进性。 展开更多
关键词 弱光图像增强 深度曲线估计 无参考损失函数 多层卷积神经网络 无监督学习
原文传递
基于卷积神经网络的线结构光高精度三维测量方法 被引量:1
9
作者 叶涛 何威燃 +2 位作者 刘国鹏 欧阳煜 王斌 《仪器仪表学报》 北大核心 2025年第2期183-195,共13页
线结构光视觉三维测量技术因其高精度和非接触的三维重建优势而被广泛应用。然而,现有的线结构光三维测量方法在标定过程中往往面临较高的耦合性问题,且在复杂环境下,背景噪声和光照变化会严重干扰条纹的提取,导致结构光条纹中心定位精... 线结构光视觉三维测量技术因其高精度和非接触的三维重建优势而被广泛应用。然而,现有的线结构光三维测量方法在标定过程中往往面临较高的耦合性问题,且在复杂环境下,背景噪声和光照变化会严重干扰条纹的提取,导致结构光条纹中心定位精度下降,进而影响整体三维测量的精度和鲁棒性。针对上述问题,提出了一种基于卷积神经网络的鲁棒三维测量方法。首先,设计了一种创新性的残差U型块特征金字塔网络(RSU-FPN),旨在实现背景噪声的干扰抑制和结构光条纹区域中心的高精度鲁棒提取。其次,构建了一种新型的线结构光视觉传感器,并提出了一种分离式测量模型,成功将摄像机标定与光平面标定解耦,极大地提高了系统的灵活性与扩展性。通过这种解耦的标定方式,避免了传统标定方法中存在的耦合问题,使得整个测量系统更加高效且易于调整。实验结果表明,所提出的基于卷积神经网络的鲁棒三维测量方法,在复杂背景下能够实现结构光条纹中心的高精度提取,利用提取出的光条纹中心进行标定,其均方根误差分别为x方向0.005 mm、y方向0.009 mm以及z方向0.097 mm。并且,该方法在不同表面类型(如漫反射表面和光滑反射表面)上均能实现高精度的三维重建,验证了其在实际应用中的优越性和强大的鲁棒性。 展开更多
关键词 线结构光 三维测量 卷积神经网络 残差U型块特征金字塔网络 背景噪声抑制
原文传递
基于GCN-LSTM的多交叉口信号灯控制 被引量:1
10
作者 徐东伟 朱宏俊 +2 位作者 郭海锋 周晓刚 汤立新 《高技术通讯》 北大核心 2025年第5期472-479,共8页
强化学习(reinforcement learning,RL)由于其解决高度动态环境中复杂决策问题的能力,成为信号灯控制中一种具有前景的解决方案。大多数基于强化学习的方法独立生成智能体的动作,它们可能导致交叉口的动作冲突、道路资源浪费。因此,本文... 强化学习(reinforcement learning,RL)由于其解决高度动态环境中复杂决策问题的能力,成为信号灯控制中一种具有前景的解决方案。大多数基于强化学习的方法独立生成智能体的动作,它们可能导致交叉口的动作冲突、道路资源浪费。因此,本文提出了基于图卷积网络和长短期记忆(graph convolution network-long short-term memory,GCNLSTM)的多交叉口信号灯控制方法。首先,基于二进制权重网络对多交叉口进行构图。其次,通过图卷积网络聚合周围交叉口的空间状态信息,利用长短期记忆(long short-term memory,LSTM)获得交叉口的历史状态信息。最后,通过基于竞争网络框架的Q值网络进行动作的选择,实现对交叉口相位的控制。实验结果表明,与其他强化学习方法相比,本文方法在多交叉口的信号灯控制中能够减少交叉口的队列长度,并使道路网络中的车辆获得更少的等待时间。 展开更多
关键词 智能交通系统 交通信号灯控制 多智能体强化学习 长短期记忆 图卷积网络
在线阅读 下载PDF
改进RetinexNet的低光照图像增强方法 被引量:1
11
作者 顾梅花 丁梦玥 董晓晓 《西安工程大学学报》 2025年第2期84-92,共9页
在低光照条件下,图像往往会出现细节丢失和噪声增多的问题,严重影响了图像质量。因此,提出了一种结合注意力机制的低光照图像增强方法。以RetinexNet为基础模型,首先,在分解网络中,通过引入特征融合模块,将浅层特征横向连接输入至深层网... 在低光照条件下,图像往往会出现细节丢失和噪声增多的问题,严重影响了图像质量。因此,提出了一种结合注意力机制的低光照图像增强方法。以RetinexNet为基础模型,首先,在分解网络中,通过引入特征融合模块,将浅层特征横向连接输入至深层网络,可以保留更多的特征信息和细节。其次,针对反射分量噪声大的问题,在降噪网络中加入了NAFNet噪声去除模块,有效降低了噪声对图像质量的影响。最后,在亮度增强网络中,采用了Unet结构并嵌入了通道注意力机制(channel attention,CA),使其能够学习不同特征通道之间的相关性和不同光照条件下的特定通道的特征表示,从而显著提高了光照图的增强效果。实验结果表明:与RetinexNet相比,该方法的峰值信噪比提升了约1.05 dB,平均绝对差值提升了约0.03,结构相似性提升了约0.09,图像相似性提升了约0.05,自然图像质量提升了约0.75。综上,该方法能有效抑制噪声,并显著提升低光照图像细节的增强效果。 展开更多
关键词 RetinexNet 特征融合 低光照图像增强 卷积神经网络 通道注意力机制
在线阅读 下载PDF
基于CNN信噪比估计的MB分布概率整形NOMA-VLC系统研究
12
作者 张峰 侯林欣 +1 位作者 何滨江 刘叶楠 《光子学报》 北大核心 2025年第8期48-59,共12页
提出了一种基于卷积神经网络(CNN)信噪比估计的麦克斯韦-玻尔兹曼分布(MB)分布概率整形(PS)非正交多址接入可见光通信(NOMA-VLC)系统模型。首先对多用户场景下的系统模型进行理论推导,通过MB分布对系统星座图进行概率整形,形成PS-M-QAM... 提出了一种基于卷积神经网络(CNN)信噪比估计的麦克斯韦-玻尔兹曼分布(MB)分布概率整形(PS)非正交多址接入可见光通信(NOMA-VLC)系统模型。首先对多用户场景下的系统模型进行理论推导,通过MB分布对系统星座图进行概率整形,形成PS-M-QAM模型,以减少噪声和多径效应对系统通信性能的影响;其次,将CNN模型与PS-NOMA-VLC模型联合应用优化通信可靠性;最后建立实验平台,在AWGN+多径信道下通过蒙特卡洛实验对系统性能进行分析,结果表明:当系统误码率达到前向纠错(FEC)误码率阈值时,调制阶次为16的两用户平均可以获得3 dB以上性能增益,调制阶次为64的两用户平均可以获得4 dB以上性能增益。论文算法是NOMA-VLC系统在高阶调制格式下保证通信可靠性的有效方式。 展开更多
关键词 非正交多址可见光通信 概率整形 麦克斯韦-玻尔兹曼分布 卷积神经网络 信噪比估计
在线阅读 下载PDF
不良光照场景下的交通标志识别算法
13
作者 党宏社 肖利霞 张选德 《半导体光电》 北大核心 2025年第1期142-148,共7页
交通标志识别技术作为自动驾驶系统的核心组件,在保障行车安全方面具有重要作用。为改善不良光照场景下交通标志的自动识别效果,提出了一种基于改进NanoDet的交通标志识别算法。该算法以NanoDet模型为基础,首先,在主干网络集成SSM模块与... 交通标志识别技术作为自动驾驶系统的核心组件,在保障行车安全方面具有重要作用。为改善不良光照场景下交通标志的自动识别效果,提出了一种基于改进NanoDet的交通标志识别算法。该算法以NanoDet模型为基础,首先,在主干网络集成SSM模块与CBAM注意力机制,有效提高模型在不良光照场景下的识别精度;其次,构建加权双向特征金字塔网络强化多尺度特征融合;最后,将AGM模块中的标准卷积替换为深度可分离卷积,在保证感受野的同时显著降低模型参数量。基于扩充版CCTSDB数据集的实验表明,该算法在保持138.2帧/s实时处理速度的前提下,识别精度为90.2%,相较基准模型提升4.7个百分点。 展开更多
关键词 交通标志识别 不良光照 注意力模块 特征金字塔 深度可分离卷积
原文传递
空间目标迁移识别方法研究
14
作者 李品 杜亮 +4 位作者 徐文玲 黄鹤鸣 吴春晓 王怡 程强 《现代雷达》 北大核心 2025年第10期1-9,共9页
空间目标识别是空间态势感知的核心技术,基于深度学习的目标识别技术因其效果出色被广泛应用。然而,由于空间目标成像装备在体制、带宽上的不同和目标本身姿态上的差异性,识别模型面临训练样本和测试样本分布差异大以及测试场景下的数... 空间目标识别是空间态势感知的核心技术,基于深度学习的目标识别技术因其效果出色被广泛应用。然而,由于空间目标成像装备在体制、带宽上的不同和目标本身姿态上的差异性,识别模型面临训练样本和测试样本分布差异大以及测试场景下的数据积累严重不足的困难。针对该问题,文中研究了基于迁移学习的跨模态、跨频段和跨姿态迁移技术。在公开的空间目标数据集NASA-3D上,相比于基准方法,文中提出的方法在识别准确率和泛化性能方面均实现了显著提升。 展开更多
关键词 空间目标 迁移识别 卷积神经网络 数据增强 雷光迁移
原文传递
融合可变形卷积的轻量级路面病害检测算法 被引量:2
15
作者 孔令鑫 陈紫强 +1 位作者 晋良念 蒋艳英 《科学技术与工程》 北大核心 2025年第2期683-694,共12页
针对现有的路面病害检测算法在复杂环境下检测精度低、模型复杂度高的问题,在YOLOv5基础上,提出了一种融合可变形卷积的轻量级路面病害检测算法(lightweight deformable convolution YOLOv5,LDC-YOLOv5)。首先,针对真实路面病害复杂不... 针对现有的路面病害检测算法在复杂环境下检测精度低、模型复杂度高的问题,在YOLOv5基础上,提出了一种融合可变形卷积的轻量级路面病害检测算法(lightweight deformable convolution YOLOv5,LDC-YOLOv5)。首先,针对真实路面病害复杂不规整的特点,使用可变形卷积(Deformable Conv)和深度卷积(Depthwise Conv),设计了一种轻量级特征提取模块,代替原网络主干部分的C3模块,使卷积核聚焦在无规则裂缝病害上,增强病害特征提取能力。其次,针对特征融合阶段出现算法复杂度过高的问题,使用轻量级卷积GhostConv,构建一种轻量级特征融合模块,代替原网络颈部网络部分的C3模块,降低网络参数和复杂度;为避免真实路面出现光照不均,出现阴影遮挡路面病害目标而造成的病害漏检的情况,在主干网络部分,引入轻量级注意力机制TripletAttention,增强算法对病害信息上下文之间的理解能力。最后在IEEE公开数据集RDD2022和Kaggle公开数据集Road Damage上进行测试,实验结果表明,与YOLOv5s相比,mAP50在两个数据集上分别提升了1.4%和4.2%,且模型参数量仅为YOLOv5s的67.6%。 展开更多
关键词 深度学习 目标检测 路面病害 YOLOv5s 可变形卷积 轻量化
在线阅读 下载PDF
低照度彩色偏振图像增强算法LPEGAN
16
作者 段锦 郝水莲 +3 位作者 高美玲 黄丹丹 朱文博 付为杰 《吉林大学学报(信息科学版)》 2025年第3期671-681,共11页
针对低照度场景下彩色偏振图像亮度低、噪声严重以及颜色失真等问题,提出了一种低照度彩色偏振图像色彩增强的无监督学习算法LPEGAN(Low-Light Polarization Enhance Generative Adversarial Network)。首先,设计双分支特征提取模块,使... 针对低照度场景下彩色偏振图像亮度低、噪声严重以及颜色失真等问题,提出了一种低照度彩色偏振图像色彩增强的无监督学习算法LPEGAN(Low-Light Polarization Enhance Generative Adversarial Network)。首先,设计双分支特征提取模块,使用不同分支分别对斯托克斯参数S 0和S 1,S 2进行特征提取;其次,构建残差空洞卷积模块,不同扩张率能扩大感受野,提高模型提取能力,减少图像颜色失真;最后,构造边缘纹理损失函数,用于保证增强图像与输入图像的结构相似性。在公开的数据集LLCP(Low-Light Chromatic Intensity-Polarization Imaging)、IPLNet(Intensity-Polarization Imaging in Low Light Network)以及自建数据集上进行了实验验证。结果表明,相较于其他算法,所提算法能呈现出更好的视觉效果,且各项评价指标均得到明显改善,偏振图像亮度得到增强,噪声得到明显抑制,并且图像颜色更加真实自然。 展开更多
关键词 低照度偏振图像 双分支特征提取 残差空洞卷积 边缘结构相似性损失
在线阅读 下载PDF
基于改进YOLOv8n的水下鱼类目标识别轻量化模型 被引量:3
17
作者 曹宇 李佳阳 王芳 《上海海洋大学学报》 北大核心 2025年第1期188-200,共13页
针对复杂水下环境中鱼类目标识别精度不足、传统目标识别模型复杂度高、识别速度慢等问题,出现了一种基于改进YOLOv8n的水下鱼类目标识别模型YOLOv8n-fish。本文提出轻量级双卷积模块C2fDualConv,以改善YOLOv8n中C2f模块的特征学习能力... 针对复杂水下环境中鱼类目标识别精度不足、传统目标识别模型复杂度高、识别速度慢等问题,出现了一种基于改进YOLOv8n的水下鱼类目标识别模型YOLOv8n-fish。本文提出轻量级双卷积模块C2fDualConv,以改善YOLOv8n中C2f模块的特征学习能力;基于高效的结构重参数化思想设计全新的颈部网络EffQAFPN,以平衡目标模型的识别精度和速度;采用二阶段微调方法,提升水下弱光及干扰物环境下鱼类目标识别模型的识别精度。实验结果表明,YOLOv8n-fish模型在测试集的平均精度为97.47%,较传统YOLOv8n模型提升了1.07%;而改进后模型的参数量、浮点运算量和模型内存占用量仅为原始模型的56.1%、82%和66.7%。YOLOv8n-fish模型的识别速度仅次YOLOv5n-P6,可达到121帧/s。实验结果表明,YOLOv8n-fish模型在保持高识别精度的同时显著降低计算成本,为水产养殖的智能监测提供有效的技术支持。 展开更多
关键词 水产养殖 YOLOv8n 双卷积模块 轻量化 深度学习
原文传递
基于机器视觉技术的农用车辆发动机水泵气密性检测研究 被引量:1
18
作者 刘兴亚 尹斌 +3 位作者 廉洁 王胜 李赫 余永昌 《中国农机化学报》 北大核心 2025年第6期242-249,共8页
为提高农用车辆发动机生产线检测效率,研究采用多光路视觉成像与非线性光照补偿方法对发动机水泵气密性进行准确检测,并开发基于混合对抗3DCNN的气泡视频检测算法提升检测效率和准确性。此外,通过可变形深度卷积网络和迁移学习的目标检... 为提高农用车辆发动机生产线检测效率,研究采用多光路视觉成像与非线性光照补偿方法对发动机水泵气密性进行准确检测,并开发基于混合对抗3DCNN的气泡视频检测算法提升检测效率和准确性。此外,通过可变形深度卷积网络和迁移学习的目标检测方法提升微小气泡检测的精度和速度。研究结果表明:使用更新数据集的3DCNN模型的平均查准率(mAP)、平均查全率(AR)和平均精度(AP)分别提高至92.39%、95.01%和95.25%,这说明定期更新训练数据集对提升模型的识别精度和适应性有积极影响。将TDD—Net融入3DCNN模型检测发动机水泵壳体气密性,平均查准率、平均查全率和平均精度分别提高至96.27%、97.72%和96.37%,表明深度学习模型在集成先进结构中能够有效提升图像识别、分类等任务的准确度和鲁棒性。为农用车辆发动机水泵气密性检测提供一种新的技术思路和方法,为农业生产提供更加可靠、高效的技术保障。 展开更多
关键词 农用车辆发动机 水泵 气密性检测 非线性光照补偿 三维卷积神经网络 可变形卷积网络 迁移学习
在线阅读 下载PDF
亮度信噪比引导Transformer的低照度图像增强 被引量:1
19
作者 杜晓刚 路文杰 +1 位作者 雷涛 王营博 《计算机工程与应用》 北大核心 2025年第6期263-272,共10页
一些低照度图像增强方法生成的增强图像存在亮度不均、去噪效果较差和缺少细节的问题。为了解决上述问题,提出了基于亮度和信噪比引导Transformer的低照度图像增强网络BSGFormer。该网络具有三个优势:设计了亮度信噪比生成子网络,旨在... 一些低照度图像增强方法生成的增强图像存在亮度不均、去噪效果较差和缺少细节的问题。为了解决上述问题,提出了基于亮度和信噪比引导Transformer的低照度图像增强网络BSGFormer。该网络具有三个优势:设计了亮度信噪比生成子网络,旨在提取全局光照信息和定位信息量缺失的暗区域;通过亮度和信噪比特征引导Transformer,仅对信息量缺失的暗区提取长距离特征以减少计算量,同时引导后续特征融合模块,借助亮区信息来丰富暗区细节并实现信息共享;设计了交叉融合注意力模块并将其引入到编解码器之间,改善网络对图像细节信息的保留能力。在四个公开数据集上进行实验表明,与主流方法相比,BSGFormer在主观视觉和客观评价两方面均得到了更好的增强效果。 展开更多
关键词 低照度图像 图像增强 TRANSFORMER 卷积残差
在线阅读 下载PDF
基于YOLOv8n的表格线检测改进模型 被引量:1
20
作者 韦超 钱春雨 +2 位作者 黄启鹏 杜林轩 杨哲 《计算机工程与应用》 北大核心 2025年第2期112-123,共12页
在表格识别重构任务中,分割和合并的重构方法需要通过检测表格线进而重构出电子表格,因此表格线检测结果的质量直接决定了表格重构的效果。针对已有方法存在误检漏检的问题,提出一种YOLOv8n改进模型,用于表格线检测。在主干网络中,利用S... 在表格识别重构任务中,分割和合并的重构方法需要通过检测表格线进而重构出电子表格,因此表格线检测结果的质量直接决定了表格重构的效果。针对已有方法存在误检漏检的问题,提出一种YOLOv8n改进模型,用于表格线检测。在主干网络中,利用Swin Transformer的思想改进BottleneckCSP模块,可以捕捉到更长距离的上下文信息,提升对于大尺度表格线的识别能力;针对表格线细长密集的特点,引入蛇形动态卷积的思想改进C2f(CSPLayer_2Conv)模块,根据特征之间的空间关系自适应地调整卷积核的形状和位置,从而更好地捕获特征之间的相关性和局部细节,进而提高特征建模能力;通过CBAM(convolutional block attention module)注意力机制改造空间金字塔池化层,动态地调整特征图中每个通道和空间位置的重要性,从而增强特征图的区分能力;优化颈部结构,引入混洗卷积来改造颈部结构。实验结果表明,改进后的YOLOv8n模型在ICDAR_2013和PubTabNet数据集上,m AP@0.5:0.95、准确率、召回率分别提升了0.079、0.301、0.088,性能超过YOLO同系列模型。这些改进使得YOLOv8n模型在表格线检测任务中展现出了优异的性能,通过与合并方法结合,可以进一步提升表格重构的效果。 展开更多
关键词 表格线 YOLOv8n 注意力机制 动态蛇形卷积 TRANSFORMER 轻量化
在线阅读 下载PDF
上一页 1 2 14 下一页 到第
使用帮助 返回顶部