期刊文献+
共找到38,185篇文章
< 1 2 250 >
每页显示 20 50 100
SwinHCAD: A Robust Multi-Modality Segmentation Model for Brain Tumors Using Transformer and Channel-Wise Attention
1
作者 Seyong Jin Muhammad Fayaz +2 位作者 L.Minh Dang Hyoung-Kyu Song Hyeonjoon Moon 《Computers, Materials & Continua》 2026年第1期511-533,共23页
Brain tumors require precise segmentation for diagnosis and treatment plans due to their complex morphology and heterogeneous characteristics.While MRI-based automatic brain tumor segmentation technology reduces the b... Brain tumors require precise segmentation for diagnosis and treatment plans due to their complex morphology and heterogeneous characteristics.While MRI-based automatic brain tumor segmentation technology reduces the burden on medical staff and provides quantitative information,existing methodologies and recent models still struggle to accurately capture and classify the fine boundaries and diverse morphologies of tumors.In order to address these challenges and maximize the performance of brain tumor segmentation,this research introduces a novel SwinUNETR-based model by integrating a new decoder block,the Hierarchical Channel-wise Attention Decoder(HCAD),into a powerful SwinUNETR encoder.The HCAD decoder block utilizes hierarchical features and channelspecific attention mechanisms to further fuse information at different scales transmitted from the encoder and preserve spatial details throughout the reconstruction phase.Rigorous evaluations on the recent BraTS GLI datasets demonstrate that the proposed SwinHCAD model achieved superior and improved segmentation accuracy on both the Dice score and HD95 metrics across all tumor subregions(WT,TC,and ET)compared to baseline models.In particular,the rationale and contribution of the model design were clarified through ablation studies to verify the effectiveness of the proposed HCAD decoder block.The results of this study are expected to greatly contribute to enhancing the efficiency of clinical diagnosis and treatment planning by increasing the precision of automated brain tumor segmentation. 展开更多
关键词 attention mechanism brain tumor segmentation channel-wise attention decoder deep learning medical imaging MRI TRANSFORMER U-Net
在线阅读 下载PDF
GFL-SAR: Graph Federated Collaborative Learning Framework Based on Structural Amplification and Attention Refinement
2
作者 Hefei Wang Ruichun Gu +2 位作者 Jingyu Wang Xiaolin Zhang Hui Wei 《Computers, Materials & Continua》 2026年第1期1683-1702,共20页
Graph Federated Learning(GFL)has shown great potential in privacy protection and distributed intelligence through distributed collaborative training of graph-structured data without sharing raw information.However,exi... Graph Federated Learning(GFL)has shown great potential in privacy protection and distributed intelligence through distributed collaborative training of graph-structured data without sharing raw information.However,existing GFL approaches often lack the capability for comprehensive feature extraction and adaptive optimization,particularly in non-independent and identically distributed(NON-IID)scenarios where balancing global structural understanding and local node-level detail remains a challenge.To this end,this paper proposes a novel framework called GFL-SAR(Graph Federated Collaborative Learning Framework Based on Structural Amplification and Attention Refinement),which enhances the representation learning capability of graph data through a dual-branch collaborative design.Specifically,we propose the Structural Insight Amplifier(SIA),which utilizes an improved Graph Convolutional Network(GCN)to strengthen structural awareness and improve modeling of topological patterns.In parallel,we propose the Attentive Relational Refiner(ARR),which employs an enhanced Graph Attention Network(GAT)to perform fine-grained modeling of node relationships and neighborhood features,thereby improving the expressiveness of local interactions and preserving critical contextual information.GFL-SAR effectively integrates multi-scale features from every branch via feature fusion and federated optimization,thereby addressing existing GFL limitations in structural modeling and feature representation.Experiments on standard benchmark datasets including Cora,Citeseer,Polblogs,and Cora_ML demonstrate that GFL-SAR achieves superior performance in classification accuracy,convergence speed,and robustness compared to existing methods,confirming its effectiveness and generalizability in GFL tasks. 展开更多
关键词 Graph federated learning GCN GNNs attention mechanism
在线阅读 下载PDF
DAUNet: Unsupervised Neural Network Based on Dual Attention for Clock Synchronization in Multi-Agent Wireless Ad Hoc Networks
3
作者 Haihao He Xianzhou Dong +2 位作者 Shuangshuang Wang Chengzhang Zhu Xiaotong Zhao 《Computers, Materials & Continua》 2026年第1期847-869,共23页
Clock synchronization has important applications in multi-agent collaboration(such as drone light shows,intelligent transportation systems,and game AI),group decision-making,and emergency rescue operations.Synchroniza... Clock synchronization has important applications in multi-agent collaboration(such as drone light shows,intelligent transportation systems,and game AI),group decision-making,and emergency rescue operations.Synchronization method based on pulse-coupled oscillators(PCOs)provides an effective solution for clock synchronization in wireless networks.However,the existing clock synchronization algorithms in multi-agent ad hoc networks are difficult to meet the requirements of high precision and high stability of synchronization clock in group cooperation.Hence,this paper constructs a network model,named DAUNet(unsupervised neural network based on dual attention),to enhance clock synchronization accuracy in multi-agent wireless ad hoc networks.Specifically,we design an unsupervised distributed neural network framework as the backbone,building upon classical PCO-based synchronization methods.This framework resolves issues such as prolonged time synchronization message exchange between nodes,difficulties in centralized node coordination,and challenges in distributed training.Furthermore,we introduce a dual-attention mechanism as the core module of DAUNet.By integrating a Multi-Head Attention module and a Gated Attention module,the model significantly improves information extraction capabilities while reducing computational complexity,effectively mitigating synchronization inaccuracies and instability in multi-agent ad hoc networks.To evaluate the effectiveness of the proposed model,comparative experiments and ablation studies were conducted against classical methods and existing deep learning models.The research results show that,compared with the deep learning networks based on DASA and LSTM,DAUNet can reduce the mean normalized phase difference(NPD)by 1 to 2 orders of magnitude.Compared with the attention models based on additive attention and self-attention mechanisms,the performance of DAUNet has improved by more than ten times.This study demonstrates DAUNet’s potential in advancing multi-agent ad hoc networking technologies. 展开更多
关键词 Clock synchronization deep learning dual attention mechanism pulse-coupled oscillator
在线阅读 下载PDF
Syntax-Aware Hierarchical Attention Networks for Code Vulnerability Detection
4
作者 Yongbo Jiang Shengnan Huang +1 位作者 Tao Feng Baofeng Duan 《Computers, Materials & Continua》 2026年第1期2252-2273,共22页
In the context of modern software development characterized by increasing complexity and compressed development cycles,traditional static vulnerability detection methods face prominent challenges including high false ... In the context of modern software development characterized by increasing complexity and compressed development cycles,traditional static vulnerability detection methods face prominent challenges including high false positive rates and missed detections of complex logic due to their over-reliance on rule templates.This paper proposes a Syntax-Aware Hierarchical Attention Network(SAHAN)model,which achieves high-precision vulnerability detection through grammar-rule-driven multi-granularity code slicing and hierarchical semantic fusion mechanisms.The SAHAN model first generates Syntax Independent Units(SIUs),which slices the code based on Abstract Syntax Tree(AST)and predefined grammar rules,retaining vulnerability-sensitive contexts.Following this,through a hierarchical attention mechanism,the local syntax-aware layer encodes fine-grained patterns within SIUs,while the global semantic correlation layer captures vulnerability chains across SIUs,achieving synergistic modeling of syntax and semantics.Experiments show that on benchmark datasets like QEMU,SAHAN significantly improves detection performance by 4.8%to 13.1%on average compared to baseline models such as Devign and VulDeePecker. 展开更多
关键词 Vulnerability detection abstract syntax tree syntax rule slicing hierarchical attention mechanism deep learning
在线阅读 下载PDF
Interactive Dynamic Graph Convolution with Temporal Attention for Traffic Flow Forecasting
5
作者 Zitong Zhao Zixuan Zhang Zhenxing Niu 《Computers, Materials & Continua》 2026年第1期1049-1064,共16页
Reliable traffic flow prediction is crucial for mitigating urban congestion.This paper proposes Attentionbased spatiotemporal Interactive Dynamic Graph Convolutional Network(AIDGCN),a novel architecture integrating In... Reliable traffic flow prediction is crucial for mitigating urban congestion.This paper proposes Attentionbased spatiotemporal Interactive Dynamic Graph Convolutional Network(AIDGCN),a novel architecture integrating Interactive Dynamic Graph Convolution Network(IDGCN)with Temporal Multi-Head Trend-Aware Attention.Its core innovation lies in IDGCN,which uniquely splits sequences into symmetric intervals for interactive feature sharing via dynamic graphs,and a novel attention mechanism incorporating convolutional operations to capture essential local traffic trends—addressing a critical gap in standard attention for continuous data.For 15-and 60-min forecasting on METR-LA,AIDGCN achieves MAEs of 0.75%and 0.39%,and RMSEs of 1.32%and 0.14%,respectively.In the 60-min long-term forecasting of the PEMS-BAY dataset,the AIDGCN out-performs the MRA-BGCN method by 6.28%,4.93%,and 7.17%in terms of MAE,RMSE,and MAPE,respectively.Experimental results demonstrate the superiority of our pro-posed model over state-of-the-art methods. 展开更多
关键词 Traffic flow prediction interactive dynamic graph convolution graph convolution temporal multi-head trend-aware attention self-attention mechanism
在线阅读 下载PDF
基于SSA-LSTM-Attention的日光温室环境预测模型 被引量:3
6
作者 孟繁佳 许瑞峰 +3 位作者 赵维娟 宋文臻 高艺璇 李莉 《农业工程学报》 北大核心 2025年第11期256-263,共8页
建立准确的温室环境预测模型有助于精准调控温室环境促进作物的生长发育,针对温室小气候具有时序性、非线性和强耦合等特点,该研究提出了一种基于SSA-LSTM-Attention(sparrow search algorithm-long short-term memoryattention mechani... 建立准确的温室环境预测模型有助于精准调控温室环境促进作物的生长发育,针对温室小气候具有时序性、非线性和强耦合等特点,该研究提出了一种基于SSA-LSTM-Attention(sparrow search algorithm-long short-term memoryattention mechanism)的日光温室环境预测模型。首先,通过温室物联网数据采集系统获取温室内外环境数据;其次,使用皮尔逊相关性分析法筛选出强相关性因子;最后,构建环境特征时间序列矩阵输入模型进行温室环境预测。对日光温室的室内温度、室内湿度、光照强度和土壤湿度4种环境因子的预测,SSA-LSTM-Attention模型的平均拟合指数达到了97.9%。相较于反向传播神经网络(back propagation neural network,BP)、门控循环单元(gate recurrent unit,GRU)、长短期记忆神经网络(long short term memory,LSTM)和LSTM-Attention(long short-term memory-attention mechanism)模型,分别提高8.1、4.1、3.5、3.0个百分点;平均绝对百分比误差为2.6%,分别降低6.5、3.2、2.8、2.5个百分点。试验结果表明,通过利用SSA自动优化LSTM-Attention模型的超参数,提高了模型预测精度,为日光温室环境超前调控提供了有效的数据支持。 展开更多
关键词 日光温室 麻雀搜索算法 长短期记忆网络 注意力机制 环境预测模型
在线阅读 下载PDF
基于VMD-TCN-BiLSTM-Attention的短期电力负荷预测 被引量:1
7
作者 刘义艳 李国良 代杰 《智慧电力》 北大核心 2025年第10期87-94,共8页
针对短期电力负荷数据具有非线性和波动性等特点而导致的预测精度不足问题,提出一种基于变分模态分解(VMD)、时间卷积网络(TCN)、双向长短期记忆网络(BiLSTM)与注意力机制(Attention)相结合的新型预测模型。首先,采用VMD方法将电力负荷... 针对短期电力负荷数据具有非线性和波动性等特点而导致的预测精度不足问题,提出一种基于变分模态分解(VMD)、时间卷积网络(TCN)、双向长短期记忆网络(BiLSTM)与注意力机制(Attention)相结合的新型预测模型。首先,采用VMD方法将电力负荷数据分解成多个不同频率的模态分量,利用TCN模型提取模态分量中的时序特征;其次,通过BiLSTM网络进一步挖掘序列依赖关系;最后,引入注意力机制对BiLSTM输出的特征进行加权处理。实验结果表明,所提模型与其他传统模型相比预测精度显著提升,在短期电力负荷预测中具有较高的应用价值。 展开更多
关键词 短期电力负荷 变分模态分解 时间卷积网络 双向长短期记忆网络 注意力机制
在线阅读 下载PDF
中国保险业系统性风险的评估与预警研究——基于Attention-LSTM模型的分析 被引量:2
8
作者 师荣蓉 杨娅 《财经理论与实践》 北大核心 2025年第2期26-34,共9页
基于保险业系统性风险传导机制和预警机制的理论分析,利用CoVaR方法评估保险业系统性风险,从微观保险机构和宏观经济环境构建Attention-LSTM模型对保险业系统性风险进行预警分析。研究发现:当遭遇重大事件冲击时,系统重要性保险机构对... 基于保险业系统性风险传导机制和预警机制的理论分析,利用CoVaR方法评估保险业系统性风险,从微观保险机构和宏观经济环境构建Attention-LSTM模型对保险业系统性风险进行预警分析。研究发现:当遭遇重大事件冲击时,系统重要性保险机构对保险业的风险溢出增加;将金融压力指数纳入风险预警体系,其预测平均绝对误差、均方根误差和平均绝对百分比误差分别降低8.59%、7.27%和4.55%;Attention-LSTM模型能捕捉风险间的关联性和传染性,在预测准确性、泛化能力和时间稳定性方面均优于传统机器学习模型。鉴于此,应建立保险业风险分区管理体系,融合深度学习模型多维度构建保险业系统性风险预警机制。 展开更多
关键词 保险业系统性风险 评估 预警 attention-LSTM模型
在线阅读 下载PDF
基于音视频信息融合与Self-Attention-DSC-CNN6网络的鲈鱼摄食强度分类方法 被引量:4
9
作者 李道亮 李万超 杜壮壮 《农业机械学报》 北大核心 2025年第1期16-24,共9页
摄食强度识别分类是实现水产养殖精准投喂的重要环节。现有的投喂方式存在过度依赖人工经验判断、投喂量不精确、饲料浪费严重等问题。基于多模态融合的鱼类摄食程度分类能够综合不同类型的数据(如:视频、声音和水质参数),为鱼群的投喂... 摄食强度识别分类是实现水产养殖精准投喂的重要环节。现有的投喂方式存在过度依赖人工经验判断、投喂量不精确、饲料浪费严重等问题。基于多模态融合的鱼类摄食程度分类能够综合不同类型的数据(如:视频、声音和水质参数),为鱼群的投喂提供更加全面精准的决策依据。因此,提出了一种融合视频和音频数据的多模态融合框架,旨在提升鲈鱼摄食强度分类性能。将预处理后的Mel频谱图(Mel Spectrogram)和视频帧图像分别输入到Self-Attention-DSC-CNN6(Self-attention-depthwise separable convolution-CNN6)优化模型进行高层次的特征提取,并将提取的特征进一步拼接融合,最后将拼接后的特征经分类器分类。针对Self-Attention-DSC-CNN6优化模型,基于CNN6算法进行了改进,将传统卷积层替换为深度可分离卷积(Depthwise separable convolution,DSC)来达到减少计算复杂度的效果,并引入Self-Attention注意力机制以增强特征提取能力。实验结果显示,本文所提出的多模态融合框架鲈鱼摄食强度分类准确率达到90.24%,模型可以有效利用不同数据源信息,提升了对复杂环境中鱼群行为的理解,增强了模型决策能力,确保了投喂策略的及时性与准确性,从而有效减少了饲料浪费。 展开更多
关键词 鲈鱼 摄食强度分类 多模态融合 Self-attention-DSC-CNN6
在线阅读 下载PDF
基于BiLSTM-Attention的议论文篇章要素识别 被引量:1
10
作者 刘佳旭 白再冉 张艳菊 《计算机系统应用》 2025年第5期202-211,共10页
篇章要素识别(discourse element identification)的主要任务是识别篇章要素单元并进行分类.针对篇章要素识别对上下文依赖性理解不足的问题,提出一种基于BiLSTM-Attention的识别篇章要素模型,提高议论文篇章要素识别的准确率.该模型利... 篇章要素识别(discourse element identification)的主要任务是识别篇章要素单元并进行分类.针对篇章要素识别对上下文依赖性理解不足的问题,提出一种基于BiLSTM-Attention的识别篇章要素模型,提高议论文篇章要素识别的准确率.该模型利用句子结构和位置编码来识别句子的成分关系,通过双向长短期记忆网络(bidirectional long short-term memory,BiLSTM)进一步获得深层次上下文相关联的信息;引入注意力机制(attention mechanism)优化模型特征向量,提高文本分类的准确度;最终用句间多头自注意力(multi-head self-attention)获取句子在内容和结构上的关系,弥补距离较远的句子依赖问题.相比于HBiLSTM、BERT等基线模型,在相同参数、相同实验条件下,中文数据集和英文数据集上准确率分别提升1.3%、3.6%,验证了该模型在篇章要素识别任务中的有效性. 展开更多
关键词 双向长短期记忆网络 注意力机制 位置编码 篇章要素识别 多头注意力
在线阅读 下载PDF
基于Attention-1DCNN-CE的加密流量分类方法
11
作者 耿海军 董赟 +3 位作者 胡治国 池浩田 杨静 尹霞 《计算机应用》 北大核心 2025年第3期872-882,共11页
针对传统加密流量识别方法存在多分类准确率低、泛化性不强以及易侵犯隐私等问题,提出一种结合注意力机制(Attention)与一维卷积神经网络(1DCNN)的多分类深度学习模型——Attention-1DCNN-CE。该模型包含3个核心部分:1)数据集预处理阶段... 针对传统加密流量识别方法存在多分类准确率低、泛化性不强以及易侵犯隐私等问题,提出一种结合注意力机制(Attention)与一维卷积神经网络(1DCNN)的多分类深度学习模型——Attention-1DCNN-CE。该模型包含3个核心部分:1)数据集预处理阶段,保留原始数据流中数据包间的空间关系,并根据样本分布构建成本敏感矩阵;2)在初步提取加密流量特征的基础上,利用Attention和1DCNN模型深入挖掘并压缩流量的全局与局部特征;3)针对数据不平衡这一挑战,通过结合成本敏感矩阵与交叉熵(CE)损失函数,显著提升少数类别样本的分类精度,进而优化模型的整体性能。实验结果表明,在BOT-IOT和TON-IOT数据集上该模型的整体识别准确率高达97%以上;并且该模型在公共数据集ISCX-VPN和USTC-TFC上表现优异,在不需要预训练的前提下,达到了与ET-BERT(Encrypted Traffic BERT)相近的性能;相较于PERT(Payload Encoding Representation from Transformer),该模型在ISCX-VPN数据集的应用类型检测中的F1分数提升了29.9个百分点。以上验证了该模型的有效性,为加密流量识别和恶意流量检测提供了解决方案。 展开更多
关键词 网络安全 加密流量 注意力机制 一维卷积神经网络 数据不平衡 成本敏感矩阵
在线阅读 下载PDF
基于CNN-LSTM-Attention 组合模型的黄金周旅游客流预测——以大理州为例 被引量:1
12
作者 戢晓峰 郭雅诗 +2 位作者 陈方 黄志文 李武 《干旱区资源与环境》 北大核心 2025年第3期200-208,共9页
黄金周旅游客流预测一直是区域旅游管理的重大现实需求,能够为黄金周旅游组织提供更为精准的数据支持。文中基于百度迁徙数据和百度搜索指数数据,以卷积神经网络(CNN)、长短期记忆网络(LSTM)以及注意力机制(Attention)为基准,构建了CNN-... 黄金周旅游客流预测一直是区域旅游管理的重大现实需求,能够为黄金周旅游组织提供更为精准的数据支持。文中基于百度迁徙数据和百度搜索指数数据,以卷积神经网络(CNN)、长短期记忆网络(LSTM)以及注意力机制(Attention)为基准,构建了CNN-LSTM-Attention组合模型,对大理州黄金周日度旅游客流人数进行了预测,并基于SHAP算法进行了影响因素分析。结果显示:1)CNN-LSTM-Attention组合模型的预测精度优于RF模型、SVM模型、CNN模型、LSTM模型和CNN-LSTM模型。2)引入百度搜索指数特征后,模型的均方根误差(RMSE)、平均绝对百分比误差(MAPE)、决定系数(R^(2))表现最优,表明百度搜索指数的加入在一定程度上提升了模型的预测精度。文中所构模型为黄金周旅游客流预测提供了新思路。 展开更多
关键词 客流预测 黄金周 卷积神经网络(CNN) 长短期记忆网络(LSTM) 注意力机制
原文传递
基于Attention LSTM的中小企业财务风险预测模型
13
作者 张文闻 《中国市场》 2025年第27期147-150,共4页
文章提出了一种基于Attention LSTM的中小企业财务风险预测模型。此模型结合了长短期记忆网络(LSTM)和注意力机制(Attention),有效解读财务时间序列数据,并准确评估各时间段数据对风险预测的重要性。实证研究揭示,对于关键风险因素,如... 文章提出了一种基于Attention LSTM的中小企业财务风险预测模型。此模型结合了长短期记忆网络(LSTM)和注意力机制(Attention),有效解读财务时间序列数据,并准确评估各时间段数据对风险预测的重要性。实证研究揭示,对于关键风险因素,如偿债能力、经营稳定性和盈利能力等,模型表现出优于传统预测方式的精准度。因此,该模型为中小企业提供了一个有效的财务风险预测工具,可以帮助企业及时发现并应对潜在的财务风险,为未来的决策制定提供重要支持。 展开更多
关键词 中小企业 财务风险预测 attention LSTM 模型预测
在线阅读 下载PDF
基于电池老化趋势重构与TCN-GRU-Attention网络的SOH估计 被引量:1
14
作者 李士哲 张天宇 谢家乐 《电力科学与工程》 2025年第3期38-45,共8页
针对噪声干扰导致锂电池老化过程中关键特征提取困难的问题,首先,在增量容量曲线中提取反应电池老化规律的峰值特征,捕捉电池性能随时间变化的关键信息;然后,通过改进的自适应噪声完备集合经验模态分解与小波阈值降噪对特征进行联合降噪... 针对噪声干扰导致锂电池老化过程中关键特征提取困难的问题,首先,在增量容量曲线中提取反应电池老化规律的峰值特征,捕捉电池性能随时间变化的关键信息;然后,通过改进的自适应噪声完备集合经验模态分解与小波阈值降噪对特征进行联合降噪,重构出更高精度的特征序列;最后,将该特征序列输入到时间卷积网络提取序列特征,并利用门控循环单元捕捉长时间依赖性,同时引入多头注意力机制进一步增强模型对关键特征的感知能力。实验结果表明,用该方法可有效提高锂电池健康状态估计的准确性,使均方根误差小于1.5%,平均绝对误差小于1%。 展开更多
关键词 锂电池 电池健康状态 自适应噪声完备集合经验模态分解 小波阈值降噪 时间卷积网络 门控循环单元 多头注意力机制
在线阅读 下载PDF
基于MSCNN-BiGRU-Attention的短期电力负荷预测 被引量:1
15
作者 李科 潘庭龙 许德智 《中国电力》 北大核心 2025年第6期10-18,共9页
为解决电力负荷关键特征难以提取的问题,提出一种结合多尺度卷积神经网络-双向门控循环单元-注意力机制(multi-scale convolutional neural network-bi-directional gated recurrent unit-Attention,MSCNN-BiGRU-Attention)的组合模型... 为解决电力负荷关键特征难以提取的问题,提出一种结合多尺度卷积神经网络-双向门控循环单元-注意力机制(multi-scale convolutional neural network-bi-directional gated recurrent unit-Attention,MSCNN-BiGRU-Attention)的组合模型进行短期电力负荷预测。首先,通过Spearman相关系数分析电力负荷数据集的相关性,筛选出相关性较高的特征,构建电力负荷数据集;其次,将数据输入到多尺度卷积神经网络(multi-scale convolutional neural network,MSCNN),对电力负荷数据进行多尺度的时序提取;然后,将提取后的时序特征输入到双向门控循环单元(bi-directional gated recurrent unit,BiGRU)神经网络进行时序预测,并通过注意力(Attention)机制对时序特征进行过滤和筛选;最后,通过全连接层整合输出预测值。以澳大利亚某地区3年的多维电力负荷数据作为数据集,并设置5种对照组模型。同时选用国内南方某地区2年的多维电力负荷数据作为模型验证数据集。结果表明,相较其他模型,MSCNN-BiGRU-Attention组合模型能够取得更好的预测效果,有效解决区域级电力负荷关键特征难以提取的问题。 展开更多
关键词 电力负荷预测 多尺度卷积神经网络 双向门控循环单元 注意力机制 深度学习 Spearman相关系数
在线阅读 下载PDF
基于特征选择和优化CNN-BiLSTM-Attention对SF_(6)断路器漏气故障诊断 被引量:1
16
作者 欧阳鑫 赵龙周 +4 位作者 彭晶 龚泽威一 段雨廷 马宏明 帅春燕 《电子技术应用》 2025年第6期32-39,共8页
SF_(6)(六氟化硫)断路器是保障电网稳定运行的重要设备,但其在长期使用中容易发生漏气问题,既影响设备性能,又威胁电网的安全性。为精准诊断SF_(6)断路器的漏气故障,提出了一种基于Gini指数特征选择和贝叶斯优化(Bayesian Optimization,... SF_(6)(六氟化硫)断路器是保障电网稳定运行的重要设备,但其在长期使用中容易发生漏气问题,既影响设备性能,又威胁电网的安全性。为精准诊断SF_(6)断路器的漏气故障,提出了一种基于Gini指数特征选择和贝叶斯优化(Bayesian Optimization, BO)的CNN-BiLSTM-Attention组合模型。首先,针对影响SF_(6)断路器漏气的内外部因素,进行特征映射与重要性分析,并采用KMeans-SMOTE技术解决数据分布不均的问题。其次,利用基于Gini指数的方法筛选关键特征,并通过贝叶斯优化精调CNN-BiLSTM-Attention模型的超参数以提升分类性能。实验结果表明,设备缺陷、运行年限、运维水平、天气和温度是导致漏气的主要因素。与其他模型相比,所提方法在漏气故障的0/1分类任务中展现出更高的分类精度和鲁棒性。研究不仅验证了方法的有效性,还揭示了引发SF6断路器漏气的关键因素,为设备巡检和运维管理提供了科学支持,进一步提升了电网运行的安全性与可靠性。 展开更多
关键词 SF_(6)断路器 贝叶斯优化 特征选择 卷积神经网络-双向长短时记忆网络-注意力机制
在线阅读 下载PDF
基于健康因子和Attention-GRU的锂电池剩余使用寿命预测
17
作者 林晶 张学明 +1 位作者 董静 高煜琨 《南京信息工程大学学报》 北大核心 2025年第6期788-797,共10页
为了提高神经网络模型预测锂离子电池剩余使用寿命的准确性,本文提出一种基于Attention(注意力机制)-GRU(门控循环单元)模型的预测方法.首先,以美国NASA公开的Random Walk电池数据为基础,在电池电压、电流和时间等直接测量数据中提取与... 为了提高神经网络模型预测锂离子电池剩余使用寿命的准确性,本文提出一种基于Attention(注意力机制)-GRU(门控循环单元)模型的预测方法.首先,以美国NASA公开的Random Walk电池数据为基础,在电池电压、电流和时间等直接测量数据中提取与电池容量衰减相关性显著的健康因子,计算健康因子与电池容量之间的相关性;其次,构建Attention-GRU模型学习健康因子变化规律,依据相关性分配注意力权重,得到注意力向量,调整隐藏层输出;最后,对电池剩余使用寿命进行预测,并增加B05系列电池寿命预测探究模型泛化能力.实验结果表明:使用Attention-GRU模型对Random Walk电池预测时,MAE和RMSE在0.015左右,对B05系列电池预测时,MAE和RMSE在0.01以下,预测精度均优于对比方法,具有较高的准确度和良好的泛化能力. 展开更多
关键词 锂离子电池 attention-GRU 剩余使用寿命 健康因子
在线阅读 下载PDF
基于CNN-LSTM-Attention模型的湿喷台车泵送系统堵管故障预测方法
18
作者 王开松 魏一鸣 +3 位作者 唐威 郭旭华 李朝阳 邹俊 《工程设计学报》 北大核心 2025年第6期759-768,共10页
在隧道初期支护中,湿喷台车泵送系统易堵管而引发非计划停机、施工延误等问题,因此亟须提升设备故障预测与运维能力。针对湿喷台车泵送系统堵管故障预测方法中存在的噪声干扰大、长时间序列数据的复杂特征难以充分捕捉等问题,提出了一... 在隧道初期支护中,湿喷台车泵送系统易堵管而引发非计划停机、施工延误等问题,因此亟须提升设备故障预测与运维能力。针对湿喷台车泵送系统堵管故障预测方法中存在的噪声干扰大、长时间序列数据的复杂特征难以充分捕捉等问题,提出了一种基于CNN-LSTM-Attention模型的泵送系统堵管故障预测模型。该模型以泵送压力为预测对象,通过四分位法剔除异常值并结合卡尔曼滤波进行数据平滑处理,以确保强噪声环境下输入数据的稳定性;通过CNN(convolutional neural network,卷积神经网络)提取泵送压力数据的局部时空特征,结合LSTM(long short-term memory,长短期记忆)网络捕捉泵送过程的长序列动态特性,并引入Attention(注意力)机制自适应加权波动压力的关键节点,以实现泵送压力趋势的高精度预测。实验结果表明,所提出模型的预测效果显著优于CNN、LSTM及CNN-LSTM等传统模型。在模型预测结果的基础上,构建了湿喷台车泵送系统健康状态评价体系,开发了健康状态预测平台,有效支持了施工现场的决策。 展开更多
关键词 泵送系统 故障预测 卷积神经网络 长短期记忆网络 注意力机制
在线阅读 下载PDF
Attention机制加成的ICEEMDAN-1D-CNNBiGRU月径流预测 被引量:1
19
作者 安佳彤 赵雪花 +2 位作者 朱博文 郭秋岑 王慧方 《水电能源科学》 北大核心 2025年第7期7-10,6,共5页
针对径流序列呈现出复杂性、高波动性,直接预测误差大的问题,将改进的自适应噪声完备集合经验模态分解(ICEEMDAN)、一维卷积神经网络(1D-CNN)、双向门控循环单元(BiGRU)和注意力(Attention)机制相结合,构建ICEEMDAN-1D-CNN-BiGRU-Attent... 针对径流序列呈现出复杂性、高波动性,直接预测误差大的问题,将改进的自适应噪声完备集合经验模态分解(ICEEMDAN)、一维卷积神经网络(1D-CNN)、双向门控循环单元(BiGRU)和注意力(Attention)机制相结合,构建ICEEMDAN-1D-CNN-BiGRU-Attention模型,充分挖掘径流序列的周期性、长程相关性特征,以提高径流序列的预测精度。以汾河上游的上静游站为例开展月径流序列预测研究,与1D-CNN-BiGRU、1DCNN-BiGRU-Attention、ICEEMDAN-1D-CNN-BiGRU模型的预测结果进行对比分析。结果表明,ICEEMDAN分解原始径流序列,可以充分挖掘径流数据的周期性特征。ICEEMDAN-1D-CNN-BiGRU-Attention模型可以很好地识别序列特征,预测效果较好,验证期的纳什效率系数达0.85以上。Attention机制的加入,可提高峰值的预测效果,在突变较强的训练期合格率可达90%。研究结果为中长期径流预测提供了新思路,并验证了其有效性。 展开更多
关键词 月径流预测 ICEEMDAN 1D-CNN BiGRU attention机制
原文传递
基于CNN-LSTM-Attention的中国省域交通运输业碳达峰预测研究
20
作者 杨青 江宇航 +3 位作者 吴婵媛 段召琳 陈梦柯 刘星星 《安全与环境学报》 北大核心 2025年第10期4064-4075,共12页
交通运输业减排是实现全局减排目标的关键。研究基于改进的随机性环境影响评估(Stochastic Impacts by Regression on Population,Affluence,and Technology,STIRPAT)模型分析影响交通运输业碳排放的主要因素,设置低碳、基准和高碳3种... 交通运输业减排是实现全局减排目标的关键。研究基于改进的随机性环境影响评估(Stochastic Impacts by Regression on Population,Affluence,and Technology,STIRPAT)模型分析影响交通运输业碳排放的主要因素,设置低碳、基准和高碳3种情景方案,利用卷积神经网络-长短期记忆网络-注意力机制(Convolutional Neural Networks-Long short-Term Memory-Attention Mec.hanism,CNN-LSTM-Attention)交通运输业碳排放预测模型对中国30个省、自治区、直辖市2022—2035年交通运输业碳排放进行预测。结果显示:人口情况、经济水平和交通运输等3个维度的影响因素对交通运输业碳排放具有正向驱动作用,能源技术维度的影响因素则起负向驱动作用;CNN-LSTM-Attention交通运输业碳排放预测模型提升了模型在小样本数据集的预测能力,预测效果较好;低碳、基准和高碳3种情景下中国交通运输业的碳排放峰值将晚于2030年的总排放峰值目标实现;各省在碳排放峰值和达峰时间上存在异质性,应采取差异化、精准化的政策策略,局部上分区域、分梯次达峰,以整体上实现碳达峰目标。 展开更多
关键词 环境工程学 交通运输业 碳达峰 STIRPAT模型 CNN-LSTM-attention模型 情景分析
原文传递
上一页 1 2 250 下一页 到第
使用帮助 返回顶部