期刊文献+
共找到47篇文章
< 1 2 3 >
每页显示 20 50 100
Application of Bayesian Analysis Based on Neural Network and Deep Learning in Data Visualization
1
作者 Jiying Yang Qi Long +1 位作者 Xiaoyun Zhu Yuan Yang 《Journal of Electronic Research and Application》 2024年第4期88-93,共6页
This study aims to explore the application of Bayesian analysis based on neural networks and deep learning in data visualization.The research background is that with the increasing amount and complexity of data,tradit... This study aims to explore the application of Bayesian analysis based on neural networks and deep learning in data visualization.The research background is that with the increasing amount and complexity of data,traditional data analysis methods have been unable to meet the needs.Research methods include building neural networks and deep learning models,optimizing and improving them through Bayesian analysis,and applying them to the visualization of large-scale data sets.The results show that the neural network combined with Bayesian analysis and deep learning method can effectively improve the accuracy and efficiency of data visualization,and enhance the intuitiveness and depth of data interpretation.The significance of the research is that it provides a new solution for data visualization in the big data environment and helps to further promote the development and application of data science. 展开更多
关键词 neural network deep learning bayesian analysis Data visualization Big data environment
在线阅读 下载PDF
Time Series Forecasting with Multiple Deep Learners: Selection from a Bayesian Network
2
作者 Shusuke Kobayashi Susumu Shirayama 《Journal of Data Analysis and Information Processing》 2017年第3期115-130,共16页
Considering the recent developments in deep learning, it has become increasingly important to verify what methods are valid for the prediction of multivariate time-series data. In this study, we propose a novel method... Considering the recent developments in deep learning, it has become increasingly important to verify what methods are valid for the prediction of multivariate time-series data. In this study, we propose a novel method of time-series prediction employing multiple deep learners combined with a Bayesian network where training data is divided into clusters using K-means clustering. We decided how many clusters are the best for K-means with the Bayesian information criteria. Depending on each cluster, the multiple deep learners are trained. We used three types of deep learners: deep neural network (DNN), recurrent neural network (RNN), and long short-term memory (LSTM). A naive Bayes classifier is used to determine which deep learner is in charge of predicting a particular time-series. Our proposed method will be applied to a set of financial time-series data, the Nikkei Average Stock price, to assess the accuracy of the predictions made. Compared with the conventional method of employing a single deep learner to acquire all the data, it is demonstrated by our proposed method that F-value and accuracy are improved. 展开更多
关键词 Time-Series Data deep LEARNING bayesian network RECURRENT neural network Long Short-Term Memory Ensemble LEARNING K-Means
在线阅读 下载PDF
Deep Neural Artificial Intelligence for IoT Based Tele Health Data Anal 被引量:1
3
作者 Nithya Rekha Sivakumar Ahmed Zohair Ibrahim 《Computers, Materials & Continua》 SCIE EI 2022年第3期4467-4483,共17页
Tele health utilizes information and communication mechanisms to convey medical information for providing clinical and educational assistances.It makes an effort to get the better of issues of health service delivery ... Tele health utilizes information and communication mechanisms to convey medical information for providing clinical and educational assistances.It makes an effort to get the better of issues of health service delivery involving time factor,space and laborious terrains,validating cost-efficiency and finer ingress in both developed and developing countries.Tele health has been categorized into either real-time electronic communication,or store-andforward communication.In recent years,a third-class has been perceived as remote healthcare monitoring or tele health,presuming data obtained via Internet of Things(IOT).Although,tele health data analytics and machine learning have been researched in great depth,there is a dearth of studies that entirely concentrate on the progress of ML-based techniques for tele health data analytics in the IoT healthcare sector.Motivated by this fact,in this work a method called,Weighted Bayesian and Polynomial Taylor Deep Network(WB-PTDN)is proposed to improve health prediction in a computationally efficient and accurate manner.First,the Independent Component Data Arrangement model is designed with the objective of normalizing the data obtained from the Physionet dataset.Next,with the normalized data as input,Weighted Bayesian Feature Extraction is applied to minimize the dimensionality involved and therefore extracting the relevant features for further health risk analysis.Finally,to obtain reliable predictions concerning tele health data analytics,First Order Polynomial Taylor DNN-based Feature Homogenization is proposed that with the aid of First Order Polynomial Taylor function updates the new results based on the result analysis of old values and therefore provides increased transparency in decision making.The comparison of proposed and existing methods indicates that the WB-PTDN method achieves higher accuracy,true positive rate and lesser response time for IoT based tele health data analytics than the traditional methods. 展开更多
关键词 TELEHEALTH internet of things independent component weighted bayesian first order polynomial TAYLOR deep neural network
在线阅读 下载PDF
Automated Brain Tumor Classification from Magnetic Resonance Images Using Fine-Tuned Efficient Net-B6 with Bayesian Optimization Approach
4
作者 Sarfaraz Abdul Sattar Natha Mohammad Siraj +2 位作者 Majid Altamimi Adamali Shah Maqsood Mahmud 《Computer Modeling in Engineering & Sciences》 2025年第12期4179-4201,共23页
A brain tumor is a disease in which abnormal cells form a tumor in the brain.They are rare and can take many forms,making them difficult to treat,and the survival rate of affected patients is low.Magnetic resonance im... A brain tumor is a disease in which abnormal cells form a tumor in the brain.They are rare and can take many forms,making them difficult to treat,and the survival rate of affected patients is low.Magnetic resonance imaging(MRI)is a crucial tool for diagnosing and localizing brain tumors.However,themanual interpretation of MRI images is tedious and prone to error.As artificial intelligence advances rapidly,DL techniques are increasingly used in medical imaging to accurately detect and diagnose brain tumors.In this study,we introduce a deep convolutional neural network(DCNN)framework for brain tumor classification that uses EfficientNet-B6 as the backbone architecture and adds additional layers.The model achieved an accuracy of 99.10%on the public Brain Tumor MRI datasets,and we performed an ablation study to determine the optimal batch size,optimizer,loss function,and learning rate to maximize the accuracy and robustness of the model,followed by K-Fold cross-validation and testing the model on an independent dataset,and tuning Hyperparameters with Bayesian Optimization to further enhance the performance.When comparing our model to other deep learning(DL)models such as VGG19,MobileNetv2,ResNet50,InceptionV3,and DenseNet201,aswell as variants of the EfficientNetmodel(B1–B7),the results showthat our proposedmodel outperforms all othermodels.Our investigational results demonstrate superiority in terms of precision,recall/sensitivity,accuracy,specificity,and F1-score.Such innovations can potentially enhance clinical decision-making and patient treatment in neurooncological settings. 展开更多
关键词 Brain tumor classification convolutional neural network magnetic resonance imaging deep learning bayesian optimization
在线阅读 下载PDF
ECGAN:Translate Real World to Cartoon Style Using Enhanced Cartoon Generative Adversarial Network
5
作者 Yixin Tang 《Computers, Materials & Continua》 SCIE EI 2023年第7期1195-1212,共18页
Visual illustration transformation from real-world to cartoon images is one of the famous and challenging tasks in computer vision.Image-to-image translation from real-world to cartoon domains poses issues such as a l... Visual illustration transformation from real-world to cartoon images is one of the famous and challenging tasks in computer vision.Image-to-image translation from real-world to cartoon domains poses issues such as a lack of paired training samples,lack of good image translation,low feature extraction from the previous domain images,and lack of high-quality image translation from the traditional generator algorithms.To solve the above-mentioned issues,paired independent model,high-quality dataset,Bayesian-based feature extractor,and an improved generator must be proposed.In this study,we propose a high-quality dataset to reduce the effect of paired training samples on the model’s performance.We use a Bayesian Very Deep Convolutional Network(VGG)-based feature extractor to improve the performance of the standard feature extractor because Bayesian inference regu-larizes weights well.The generator from the Cartoon Generative Adversarial Network(GAN)is modified by introducing a depthwise convolution layer and channel attention mechanism to improve the performance of the original generator.We have used the Fréchet inception distance(FID)score and user preference score to evaluate the performance of the model.The FID scores obtained for the generated cartoon and real-world images are 107 and 76 for the TCC style,and 137 and 57 for the Hayao style,respectively.User preference score is also calculated to evaluate the quality of generated images and our proposed model acquired a high preference score compared to other models.We achieved stunning results in producing high-quality cartoon images,demonstrating the proposed model’s effectiveness in transferring style between authentic images and cartoon images. 展开更多
关键词 GAN CARTOON style transfer deep learning bayesian neural network
在线阅读 下载PDF
Optimized Predictive Framework for Healthcare Through Deep Learning
6
作者 Yasir Shahzad Huma Javed +3 位作者 Haleem Farman Jamil Ahmad Bilal Jan Abdelmohsen A.Nassani 《Computers, Materials & Continua》 SCIE EI 2021年第5期2463-2480,共18页
Smart healthcare integrates an advanced wave of information technology using smart devices to collect health-related medical science data.Such data usually exist in unstructured,noisy,incomplete,and heterogeneous form... Smart healthcare integrates an advanced wave of information technology using smart devices to collect health-related medical science data.Such data usually exist in unstructured,noisy,incomplete,and heterogeneous forms.Annotating these limitations remains an open challenge in deep learning to classify health conditions.In this paper,a long short-term memory(LSTM)based health condition prediction framework is proposed to rectify imbalanced and noisy data and transform it into a useful form to predict accurate health conditions.The imbalanced and scarce data is normalized through coding to gain consistency for accurate results using synthetic minority oversampling technique.The proposed model is optimized and ne-tuned in an end to end manner to select ideal parameters using tree parzen estimator to build a probabilistic model.The patient’s medication is pigeonholed to plot the diabetic condition’s risk factor through an algorithm to classify blood glucose metrics using a modern surveillance error grid method.The proposed model can efciently train,validate,and test noisy data by obtaining consistent results around 90%over the state of the art machine and deep learning techniques and overcoming the insufciency in training data through transfer learning.The overall results of the proposed model are further tested with secondary datasets to verify model sustainability. 展开更多
关键词 Recurrent neural network long short-term memory deep learning bayesian optimization surveillance error grid hyperparameter
在线阅读 下载PDF
基于卷积神经网络的桥梁病害识别与裂缝特征测量方法
7
作者 冯志慧 曹文凯 +1 位作者 薛鹏涛 梁志强 《粉煤灰综合利用》 2025年第6期140-149,共10页
为改进桥梁病害识别效率和质量,提出一种基于贝叶斯优化和卷积神经网络的深度学习算法,进行桥梁麻面、裂缝、露筋和剥落等4种桥梁病害识别;针对裂缝病害,建立以Mobilenet-v2特征提取网络的DeepLabv3+作为裂缝图像语义分割模型。结果表明... 为改进桥梁病害识别效率和质量,提出一种基于贝叶斯优化和卷积神经网络的深度学习算法,进行桥梁麻面、裂缝、露筋和剥落等4种桥梁病害识别;针对裂缝病害,建立以Mobilenet-v2特征提取网络的DeepLabv3+作为裂缝图像语义分割模型。结果表明:基于贝叶斯优化和卷积神经网络的深度学习算法对4种桥梁病害识别精度及鲁棒性基本保持不变,训练时间减少了约80%;通过裂缝图像语义分割模型和图像处理技术实现裂缝的精准分割和几何信息的自动提取计算,分割裂缝MIoU达到0.95。桥梁病害的高效和精准识别,为桥梁性能预测分析提供了更加准确的数据参考。 展开更多
关键词 深度学习 病害识别 裂缝特征 卷积神经网络 贝叶斯优化 语义分割
在线阅读 下载PDF
有限元模型修正中的贝叶斯深度神经网络构架优化设计 被引量:1
8
作者 何宇轩 尹涛 王曦 《振动与冲击》 北大核心 2025年第6期184-190,共7页
贝叶斯神经网络(Bayesian neural network,BNN)相较于传统人工神经网络具有更强的噪声鲁棒性,在结构系统识别与健康监测领域逐渐受到关注,目前该领域的相关文献主要集中于单隐含层BNN的应用及其构架设计。具有一定深度的多隐含层构架相... 贝叶斯神经网络(Bayesian neural network,BNN)相较于传统人工神经网络具有更强的噪声鲁棒性,在结构系统识别与健康监测领域逐渐受到关注,目前该领域的相关文献主要集中于单隐含层BNN的应用及其构架设计。具有一定深度的多隐含层构架相比于单隐含层在复杂高维数据拟合上通常具有更强的泛化能力,但针对多隐含层BNN构架优化设计问题的研究目前尚未见报道。该研究旨在针对多隐含层BNN并结合有限元模型修正问题开展构架优化设计研究,发展基于证据对数的多隐含层BNN网络性能定量量度,并提出一种实现多隐含层BNN各隐含层神经元数量同步优化的高效算法,获得针对具体模型修正问题的多隐含层BNN构架优化设计方案。通过基于现场实测模态参数的某大跨度钢结构人行桥模型修正验证了所提出方法的正确性和有效性。 展开更多
关键词 结构系统识别 结构健康监测 有限元模型修正 贝叶斯深度神经网络 构架优化设计
在线阅读 下载PDF
基于滤波模型和神经网络的机动目标跟踪算法
9
作者 阴亮 杨渊强 +1 位作者 李荣 温允巍 《电光与控制》 北大核心 2025年第12期23-27,共5页
针对未知动力学假设和噪声参数等先验信息下的非线性机动目标跟踪,基于贝叶斯滤波模型和神经网络提出一种混合驱动的机动目标跟踪算法。该算法结合模型驱动和数据驱动算法优点,首先使用长短时记忆网络从雷达量测序列中实现对目标状态的... 针对未知动力学假设和噪声参数等先验信息下的非线性机动目标跟踪,基于贝叶斯滤波模型和神经网络提出一种混合驱动的机动目标跟踪算法。该算法结合模型驱动和数据驱动算法优点,首先使用长短时记忆网络从雷达量测序列中实现对目标状态的预测过程,然后使用Transformer网络中的注意力机制完成量测序列和目标预测状态的深度融合以获取目标当前时刻状态的精确估计。仿真实验结果表明:所提算法能在不同场景下保持稳定的跟踪精度,尤其在目标机动时与现有的经典目标跟踪算法相比有更小的跟踪误差。 展开更多
关键词 机动目标跟踪 贝叶斯滤波算法 深度神经网络
在线阅读 下载PDF
基于概率与岩石物理信息神经网络的测井多参数反演方法
10
作者 高翊宁 徐朝晖 +1 位作者 田淼 徐怀民 《天然气地球科学》 北大核心 2025年第10期1942-1956,共15页
准确预测储层物性参数是储层评价和生产决策中的关键环节。测井数据反演的常用方法主要包括岩石物理模型、统计分析及深度学习方法。岩石物理模型虽具备较强的物理解释性,但实验数据获取困难,而深度学习方法虽能建模复杂非线性关系,但... 准确预测储层物性参数是储层评价和生产决策中的关键环节。测井数据反演的常用方法主要包括岩石物理模型、统计分析及深度学习方法。岩石物理模型虽具备较强的物理解释性,但实验数据获取困难,而深度学习方法虽能建模复杂非线性关系,但缺乏物理约束。鉴于此,提出了一种基于概率与岩石物理信息神经网络的测井多参数反演方法。该方法结合了知识驱动的岩石物理正演模型与数据驱动的深度学习神经网络,并通过贝叶斯神经网络对岩石物理超参数进行概率估计,实现了孔隙度、含水饱和度及声波时差的联合预测和不确定性量化。实验结果表明,临界孔隙度及配位数等参数对岩石物理模型的影响机制复杂,且在高声波时差条件下,参数敏感性更高,对预测结果的影响更加突出。与常规深度学习方法相比,该方法通过嵌入岩石物理正演约束,提高了模型在数据质量或数据量受限情况下的鲁棒性,能够实现具有物理规律一致性的多参数预测,并在砂岩储层物性预测中展现出更高的准确性。 展开更多
关键词 测井多参数反演 贝叶斯神经网络 深度学习 岩石物理模型 不确定性量化
原文传递
基于对偶贝叶斯U-Net的波阻抗不确定性反演方法研究
11
作者 王梓旭 王守东 +1 位作者 周晨 程万里 《石油物探》 北大核心 2025年第1期138-150,共13页
传统的深度神经网络通常只能实现确定性的预测,无法对反演结果进行不确定性分析,即无法对反演结果的可靠性进行评价。为实现标签数据不足条件下精确的波阻抗反演和对反演结果的不确定性分析,提出了一种基于对偶贝叶斯U-Net的波阻抗不确... 传统的深度神经网络通常只能实现确定性的预测,无法对反演结果进行不确定性分析,即无法对反演结果的可靠性进行评价。为实现标签数据不足条件下精确的波阻抗反演和对反演结果的不确定性分析,提出了一种基于对偶贝叶斯U-Net的波阻抗不确定性反演方法。首先,开展基于对偶贝叶斯U-Net、前沿深度学习反演方法和传统不确定性反演方法的模拟数据实验,对比分析3种方法的反演精度。然后,将对偶贝叶斯U-Net和传统不确定性反演方法的反演可靠性和对于含噪数据反演的鲁棒性进行对比分析。最后,将对偶贝叶斯U-Net应用于实际地震资料波阻抗反演中。模拟数据实验结果表明,该方法的对偶贝叶斯U-Net在少量标签数据条件下具有较高反演精度并对含噪数据反演有较强鲁棒性。此外,不确定性分析表明,该方法的反演结果可靠性强。实际数据测试结果表明,对偶贝叶斯U-Net能在实际工区数据反演中获得合理并可靠的反演结果。 展开更多
关键词 波阻抗反演 不确定性反演 深度神经网络 少量标签数据 对偶贝叶斯U-Net
在线阅读 下载PDF
AN ACCELERATION STRATEGY FOR RANDOMIZE-THEN-OPTIMIZE SAMPLING VIA DEEP NEURAL NETWORKS
12
作者 Liang Yan Tao Zhou 《Journal of Computational Mathematics》 SCIE CSCD 2021年第6期848-864,共17页
Randomize-then-optimize (RTO) is widely used for sampling from posterior distributions in Bayesian inverse problems. However, RTO can be computationally intensive forcomplexity problems due to repetitive evaluations o... Randomize-then-optimize (RTO) is widely used for sampling from posterior distributions in Bayesian inverse problems. However, RTO can be computationally intensive forcomplexity problems due to repetitive evaluations of the expensive forward model and itsgradient. In this work, we present a novel goal-oriented deep neural networks (DNN) surrogate approach to substantially reduce the computation burden of RTO. In particular,we propose to drawn the training points for the DNN-surrogate from a local approximatedposterior distribution – yielding a flexible and efficient sampling algorithm that convergesto the direct RTO approach. We present a Bayesian inverse problem governed by ellipticPDEs to demonstrate the computational accuracy and efficiency of our DNN-RTO approach, which shows that DNN-RTO can significantly outperform the traditional RTO. 展开更多
关键词 bayesian inverse problems deep neural network Markov chain Monte Carlo
原文传递
基于随机变分推理贝叶斯神经网络的发电机轴承故障诊断 被引量:11
13
作者 王进花 岳亮辉 +1 位作者 曹洁 马佳林 《控制与决策》 EI CSCD 北大核心 2023年第4期1015-1021,共7页
近年来,许多基于深度学习的方法被用于故障诊断领域,并且取得了良好的效果,但是发电机故障样本数据难以获取,在数据量较少的情况下,基于深度学习的方法存在过拟合现象,导致模型泛化能力差、诊断精度不高.为了解决这一问题,提出一种基于... 近年来,许多基于深度学习的方法被用于故障诊断领域,并且取得了良好的效果,但是发电机故障样本数据难以获取,在数据量较少的情况下,基于深度学习的方法存在过拟合现象,导致模型泛化能力差、诊断精度不高.为了解决这一问题,提出一种基于随机变分推理贝叶斯神经网络的故障诊断方法.该方法以贝叶斯推理与随机变分推理为基础,可以根据少量数据得到较为可靠的模型,获得网络各层参数的概率分布,有效解决过拟合的问题.采用证据下限(evidence lower bound,ELBO)派生类函数TraceGraph ELBO进行随机变分推理,解决派生类函数Trace ELBO诊断精度较低的问题.将所提方法应用于发电机轴承的故障诊断,并与其他方法对比,结果表明,所提方法在故障样本数据量较少的情况下具有较高的诊断性能. 展开更多
关键词 发电机轴承 故障诊断 深度学习 贝叶斯神经网络 随机变分推理
原文传递
贝叶斯正则化神经网络在深基坑变形预测的应用 被引量:10
14
作者 岳建伟 仲豪磊 +4 位作者 顾丽华 邢旋旋 黎鹏 张静 王自法 《河南大学学报(自然科学版)》 CAS 2022年第2期200-209,共10页
针对传统BP神经网络在深基坑施工开挖变形的预测,基坑的安全性判定仅利用监测的最终数值而无法全面服务于深基坑工程,提出了一种遗传算法(Genetic Algorithm,GA)和贝叶斯正则化算法(Bayesian Regularization,BR)组合优化传统BP神经网络... 针对传统BP神经网络在深基坑施工开挖变形的预测,基坑的安全性判定仅利用监测的最终数值而无法全面服务于深基坑工程,提出了一种遗传算法(Genetic Algorithm,GA)和贝叶斯正则化算法(Bayesian Regularization,BR)组合优化传统BP神经网络的预测模型,在优化预测模型中加入了影响深基坑安全稳定的客观因素及人为主观因素,进一步提高了BP神经网络全局优化能力以及泛化能力.研究结果表明:该组合优化方法对深基坑地表沉降和水平位移变形预测的平均相对误差分别为0.32%和0.59%,表现出较高的预测精度.该组合优化模型首次在深基坑变形领域验证了应用的可行性,为深基坑变形预测提供了新的思路和方法. 展开更多
关键词 深基坑变形预测 贝叶斯正则化 遗传算法 BP神经网络 人为主观因素
原文传递
基于双结构深度学习的滚动轴承故障智能诊断 被引量:4
15
作者 齐咏生 郭春雨 +2 位作者 师芳 高胜利 李永亭 《振动与冲击》 EI CSCD 北大核心 2021年第10期103-113,共11页
大型转动机械在工业生产过程中,轴承故障频发,呈现出一种“大数据”的特性,并且现场获取的故障数据往往是不完备和无标签的,亟需开发具有自学习能力的诊断算法。针对该研究提出一种基于双结构深度学习的轴承故障类型与损伤程度的智能诊... 大型转动机械在工业生产过程中,轴承故障频发,呈现出一种“大数据”的特性,并且现场获取的故障数据往往是不完备和无标签的,亟需开发具有自学习能力的诊断算法。针对该研究提出一种基于双结构深度学习的轴承故障类型与损伤程度的智能诊断算法。该方法使用不完备的数据建模,分为故障类型自学习网络和故障损伤等级识别网络两个结构。对轴承故障信号进行形态学滤波,抑制部分噪声,增强信号的脉冲特征;对消噪后信号进行S变换得到时频图,获取故障类型的共性特征;并将时频图作为卷积神经网络(CNN)的输入,利用网络的相似性度量在目标空间对同类型样本汇聚、不同类型样本分离,实现对轴承故障类型的分类与新故障类型的自学习。将实现故障类型分类的信号经归一化处理后作为深度置信网络(DBN)的输入,利用DBN对微小故障的敏感性对不同损伤程度的差异特征进行提取,之后将提取的特征作为贝叶斯分类器的输入,依据后验概率判别规则实现故障损伤等级自主识别。将该方法应用于西储大学实验平台的滚动轴承故障数据,结果表明,该方法在不完备数据建模的情况下,不仅能完成故障类型与损伤等级的准确分类,而且还能实现故障自学习和损伤等级自增长,增强了诊断过程的智能性。 展开更多
关键词 卷积神经网络(CNN) 深度置信网络(DBN) 贝叶斯分类器 滚动轴承 相似性度量 不完备数据建模
在线阅读 下载PDF
基于BiGRU和贝叶斯分类器的文本分类 被引量:16
16
作者 梁志剑 谢红宇 安卫钢 《计算机工程与设计》 北大核心 2020年第2期381-385,共5页
针对传统的循环神经网络模型在处理长期依赖问题时面临着梯度爆炸或者梯度消失的问题,且参数多训练模型时间长,提出一种基于双向GRU神经网络和贝叶斯分类器的文本分类方法。利用双向GRU神经网络提取文本特征,通过TF-IDF算法权重赋值,采... 针对传统的循环神经网络模型在处理长期依赖问题时面临着梯度爆炸或者梯度消失的问题,且参数多训练模型时间长,提出一种基于双向GRU神经网络和贝叶斯分类器的文本分类方法。利用双向GRU神经网络提取文本特征,通过TF-IDF算法权重赋值,采用贝叶斯分类器判别分类,改进单向GRU对后文依赖性不足的缺点,减少参数,缩短模型的训练时间,提高文本分类效率。在两类文本数据上进行对比仿真实验,实验结果表明,该分类算法与传统的循环神经网络相比能够有效提高文本分类的效率和准确率。 展开更多
关键词 深度学习 文本分类 循环神经网络 GRU神经网络 贝叶斯分类器
在线阅读 下载PDF
拉索模态参数全过程自动化识别方法 被引量:2
17
作者 安永辉 薛志林 +1 位作者 廖子涵 李宾宾 《土木工程学报》 EI CSCD 北大核心 2023年第7期82-91,共10页
模态参数广泛应用于拉索索力识别与状态评估,其自动化识别是拉索实时健康监测的关键技术之一。贝叶斯FFT算法和深度神经网络可实现拉索模态参数识别的自动化和不确定性分析,其中,贝叶斯FFT算法可快速识别拉索模态参数且定量其不确定性,... 模态参数广泛应用于拉索索力识别与状态评估,其自动化识别是拉索实时健康监测的关键技术之一。贝叶斯FFT算法和深度神经网络可实现拉索模态参数识别的自动化和不确定性分析,其中,贝叶斯FFT算法可快速识别拉索模态参数且定量其不确定性,但需人工输入结构自振频带信息。为此,基于Retinanet模型和一维卷积神经网络,设计提出一种轻量化频带选择网络,使之能自动检测拉索的振动频带,进而提出一种拉索模态参数全过程自动化识别方法。提出的频带选择网络模拟人工频带选择过程,融合多频率分辨率下功率谱曲线估计信息,通过检测功率谱曲线峰值确定拉索振动频带。为验证所提算法的有效性,利用沪苏通长江大桥拉索施工阶段实测加速度数据构建训练集和测试集,完成拉索模态参数的连续自动识别。试验证明,频带自动选择网络准确性超过95%,单样本平均推理时间达到毫秒级,与贝叶斯FFT相结合可实现拉索模态参数的自动化实时识别。另外,通过拉索频率的连续识别成功检测到拉索张拉事件,验证了基于频率对拉索损伤识别的潜在可能性。 展开更多
关键词 拉索 模态识别 贝叶斯FFT 深度神经网络
原文传递
一种贝叶斯网络的卫星姿态系统故障诊断方法 被引量:3
18
作者 蒋强 刘恩雨 +1 位作者 何旭 张伟 《计算机仿真》 2024年第1期64-68,共5页
姿态控制系统是卫星系统中重要的组成部分,由于其高昂的造价,发生故障会引发恶劣的影响。随着航天科技的发展,卫星姿态控制系统也逐渐复杂,其可能发生故障的概率也随之增大。针对传统神经网络故障诊断结果缺少置信度、鲁棒性较差以及易... 姿态控制系统是卫星系统中重要的组成部分,由于其高昂的造价,发生故障会引发恶劣的影响。随着航天科技的发展,卫星姿态控制系统也逐渐复杂,其可能发生故障的概率也随之增大。针对传统神经网络故障诊断结果缺少置信度、鲁棒性较差以及易发生过拟合的缺点,在对贝叶斯统计和深度学习理论研究的基础上,提出了一种基于贝叶斯线性层与贝叶斯卷积层的Bayesian Le Net结合的网络模型。通过对卫星姿态控制系统飞轮部件的故障数据分析和处理,进而采用该模型对故障仿真,并与贝叶斯全连接神经网络与传统Le Net进行对比,实验结果表明:在飞轮可能发生的三种故障前提下,上述网络模型准确率较高,过拟合现象较轻。验证了上述网络模型的有效性。 展开更多
关键词 卫星姿态控制系统 故障诊断 贝叶斯神经网络 深度学习
在线阅读 下载PDF
空战场多分支态势仿真生成方法 被引量:4
19
作者 唐剑 张杰勇 +2 位作者 焦志强 刁联旺 李玉萍 《指挥信息系统与技术》 2019年第3期11-17,共7页
针对空战场态势要素多、影响因素复杂和不确定性强的特点,提出了空战场环境下多分支态势仿真生成方法。该方法将空战场态势预测分为战场实时态势情报接收、敌方目标分群和多分支态势生成3个模块。首先,对态势信息进行收集、格式化及分... 针对空战场态势要素多、影响因素复杂和不确定性强的特点,提出了空战场环境下多分支态势仿真生成方法。该方法将空战场态势预测分为战场实时态势情报接收、敌方目标分群和多分支态势生成3个模块。首先,对态势信息进行收集、格式化及分类存储,为后续多分支态势生成奠定基础;然后,对敌方目标多维属性信息进行深层次抽象,从而将众多敌方目标分解成多个战术编队,达到降解态势分支生成复杂度的目的;最后,结合深度神经网络和贝叶斯网络等方法生成主分支及旁路分支,并对多分支态势进行规范化表征。通过案例分析可见,该方法可提前预测战场态势信息,为指挥员快速、科学地决策提供支撑。 展开更多
关键词 空战场态势预测 多分支态势 深度神经网络 贝叶斯网络 规范化表征
在线阅读 下载PDF
基于贝叶斯-斯坦科尔伯格博弈的DNN动态防御方法 被引量:2
20
作者 王芳 周湘贞 《计算机应用与软件》 北大核心 2021年第3期142-146,共5页
基于梯度攻击对图像进行修改,可造成基于神经网络的分类技术的精确度降低10%左右,针对这一问题,提出利用网络空间领域里移动目标防御思想来增加神经网络对抗该类攻击的鲁棒性。定义整体网络集的“区别免疫”概念,将网络中防御方和用户... 基于梯度攻击对图像进行修改,可造成基于神经网络的分类技术的精确度降低10%左右,针对这一问题,提出利用网络空间领域里移动目标防御思想来增加神经网络对抗该类攻击的鲁棒性。定义整体网络集的“区别免疫”概念,将网络中防御方和用户之间的交互模拟为一个重复贝叶斯-斯坦科尔伯格博弈过程。基于此从该组网络集中挑选出一个受训练的网络对输入图像进行分类。该防御方法能减少MNIST数据库中受干扰图像的分类错误,同时对于正常的测试图像保持较高的分类精度。该方法可以与现有的防御机制结合使用,确保神经网络安全性。 展开更多
关键词 贝叶斯-斯坦科尔伯格博弈 移动目标防御 深度神经网络
在线阅读 下载PDF
上一页 1 2 3 下一页 到第
使用帮助 返回顶部