期刊文献+
共找到7篇文章
< 1 >
每页显示 20 50 100
基于Adam的分数阶GRU神经网络的轴承故障诊断
1
作者 李赛 雷欣怡 +1 位作者 丁芝侠 张永 《自动化与仪表》 2025年第4期56-60,66,共6页
为解决传统梯度下降算法训练门控循环单元网络(GRU)时收敛速度较慢的问题,提出了一种基于Adam优化的分数阶GRU神经网络的轴承故障诊断方法。首先,将分数阶微积分引入传统整数阶GRU网络,设计了基于分数阶梯度下降的GRU网络(FGRU);其次,结... 为解决传统梯度下降算法训练门控循环单元网络(GRU)时收敛速度较慢的问题,提出了一种基于Adam优化的分数阶GRU神经网络的轴承故障诊断方法。首先,将分数阶微积分引入传统整数阶GRU网络,设计了基于分数阶梯度下降的GRU网络(FGRU);其次,结合Adam算法的自适应学习率和动量机制,构建了Adam分数阶GRU网络(Adam-FGRU)。实验结果表明,Adam-FGRU不仅显著提高了GRU网络的收敛速度和诊断精度,而且在不同分数阶参数条件下均表现出较高的诊断精度,避免了由于分数阶参数选择不当引起的诊断误差。 展开更多
关键词 故障诊断 GRU神经网络 分数阶梯度下降 adam算法
在线阅读 下载PDF
基于Adam优化的卷积神经网络随机共振现象研究 被引量:1
2
作者 尚天鹏 王友国 《计算机与数字工程》 2023年第11期2553-2556,共4页
文中利用随机共振对改善Adam优化的卷积神经网络在算力有限下的性能进行了研究。对反向传播算法采用动量梯度下降算法去更新参数的网络进行Adam优化,利用MNIST手写数字集进行仿真实验,在论文实验条件下,跟动量梯度下降算法的网络相比,A... 文中利用随机共振对改善Adam优化的卷积神经网络在算力有限下的性能进行了研究。对反向传播算法采用动量梯度下降算法去更新参数的网络进行Adam优化,利用MNIST手写数字集进行仿真实验,在论文实验条件下,跟动量梯度下降算法的网络相比,Adam优化的网络在前15次epoch下交叉熵降低,增加训练样本数量可以使得交叉熵的降低幅度减小。论文对Adam优化的卷积神经网络的输出神经元加入高斯噪声,仿真结果表明,交叉熵减少百分比出现了随机共振现象,增加训练样本数量可以使得随机共振现象的效果减小。 展开更多
关键词 梯度下降算法 adam优化 高斯噪声 仿真实验
在线阅读 下载PDF
基于改进ALEXNET卷积神经网络的电容层析成像三维图像重建 被引量:5
3
作者 李岩 王璐 李佳琪 《哈尔滨理工大学学报》 CAS 北大核心 2020年第4期109-115,共7页
针对卷积神经网络三维图像重建算法的样本训练速度慢和成像精度低的问题,提出一种根据不同流型的AlexNet神经网络数据训练方法。首先通过SVM算法将输入的电容样本数据按照流型分类,然后采用单一流型样本数据训练相应的AlexNet卷积神经网... 针对卷积神经网络三维图像重建算法的样本训练速度慢和成像精度低的问题,提出一种根据不同流型的AlexNet神经网络数据训练方法。首先通过SVM算法将输入的电容样本数据按照流型分类,然后采用单一流型样本数据训练相应的AlexNet卷积神经网络,使得某一流型的神经网络的输入样本数据类型简单、样本数量少和神经网络规模小。同时采用具有冲量和自适应学习速率的Adam算法,减少了训练时的误差振荡,加速神经网络的收敛。通过对比改进的AlexNet卷积神经网络算法和LBP算法的成像结果,表明优化后的AlexNet在成像精度和速度上有显著提升。 展开更多
关键词 电容层析成像 三维图像重建 AlexNet卷积神经网络 adam梯度下降算法
在线阅读 下载PDF
一种改进的自适应动量梯度下降算法 被引量:10
4
作者 姜志侠 宋佳帅 刘宇宁 《华中科技大学学报(自然科学版)》 EI CAS CSCD 北大核心 2023年第5期137-143,共7页
为改进Adam算法存在的全局收敛性较差的问题,提出一个带有角系数的AngleAdam算法.该算法利用两次连续梯度间的角度信息自适应控制步长,一定程度改进了Adam算法全局收敛性较差的问题,提升了优化能力.采用在线学习框架,对算法从遗憾界的... 为改进Adam算法存在的全局收敛性较差的问题,提出一个带有角系数的AngleAdam算法.该算法利用两次连续梯度间的角度信息自适应控制步长,一定程度改进了Adam算法全局收敛性较差的问题,提升了优化能力.采用在线学习框架,对算法从遗憾界的角度进行收敛性分析,证明了AngleAdam具有次线性的遗憾.基于构造的三个非凸函数和深度神经网络模型,对AngleAdam算法的优化能力进行实验,实验结果表明该算法可得到较好的优化结果. 展开更多
关键词 机器学习 梯度下降类算法 adam算法 全局收敛性 遗憾界 角度信息
原文传递
基于差分隐私的广告推荐算法 被引量:3
5
作者 田蕾 葛丽娜 《计算机应用》 CSCD 北大核心 2023年第11期3346-3350,共5页
随着移动互联网行业进入快速发展阶段,用户数据以及浏览数据大幅增加,所以准确把握用户潜在需求和提高广告推荐效果显得极其重要。DeepFM模型作为目前较为先进的推荐方法,可以从原始特征中抽取到各种复杂度特征,但模型没有对数据进行防... 随着移动互联网行业进入快速发展阶段,用户数据以及浏览数据大幅增加,所以准确把握用户潜在需求和提高广告推荐效果显得极其重要。DeepFM模型作为目前较为先进的推荐方法,可以从原始特征中抽取到各种复杂度特征,但模型没有对数据进行防护。为了在DeepFM模型中实现隐私保护,提出一种基于差分隐私的DeepFM模型——DP-DeepFM,在模型训练过程中将高斯噪声加入Adam优化算法中,并进行梯度裁剪,防止加入噪声过大引发模型性能下降。在广告Criteo数据集上的实验结果表明,与DeepFM相比,DP-DeepFM的准确率仅下降了0.44个百分点,但它能提供差分隐私保护,更具安全性。 展开更多
关键词 差分隐私 推荐算法 梯度下降 深度学习 adam优化算法
在线阅读 下载PDF
一种修正学习率的梯度下降算法 被引量:5
6
作者 姜文翰 姜志侠 孙雪莲 《长春理工大学学报(自然科学版)》 2023年第6期112-120,共9页
近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数... 近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数加权平均对Adam算法中学习率进行修正,提出了MonAdam算法。通过在线学习框架,说明MonAdam算法具有O(√T)的遗憾界。经过大量实验在多种非凸函数和深度神经网络模型中将MonAdam算法与其他算法进行对比,结果表明该算法收敛性较好。 展开更多
关键词 梯度下降算法 adam算法 收敛性 遗憾界 学习率
在线阅读 下载PDF
基于自适应梯度下降算法的扬声器系统辨识
7
作者 曹南 赵磊 《计量科学与技术》 2024年第3期38-44,共7页
扬声器模型参数辨识中,常规的固定步长梯度下降算法耗时较长,且在初始参数误差较大时,参数辨识常常会不稳定。因此,提出了一种在频域中识别扬声器系统参数的变步长梯度下降算法。变步长梯度下降方法监测识别参数辨识的趋势,并自适应地... 扬声器模型参数辨识中,常规的固定步长梯度下降算法耗时较长,且在初始参数误差较大时,参数辨识常常会不稳定。因此,提出了一种在频域中识别扬声器系统参数的变步长梯度下降算法。变步长梯度下降方法监测识别参数辨识的趋势,并自适应地调整相应的学习速率。该自适应方法消除了手动调整学习速率的需要。此外,由于直接计算复杂模型的梯度并不容易,采用了中心差分的方法近似计算模型的梯度。通过建立动圈扬声器模型,设置不同初值和迭代误差结束标准,比较了固定步长方法、最小二乘法和自适应步长方法的收敛性以及辨识效果,并使用微型扬声器进行测试验证。仿真和实验表明,该方法具有更高的效率,对初始误差有更好的普适性和鲁棒性。 展开更多
关键词 计量学 扬声器 自适应 梯度下降算法 adam算法 系统辨识
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部