期刊导航
期刊开放获取
vip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
7
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于Adam的分数阶GRU神经网络的轴承故障诊断
1
作者
李赛
雷欣怡
+1 位作者
丁芝侠
张永
《自动化与仪表》
2025年第4期56-60,66,共6页
为解决传统梯度下降算法训练门控循环单元网络(GRU)时收敛速度较慢的问题,提出了一种基于Adam优化的分数阶GRU神经网络的轴承故障诊断方法。首先,将分数阶微积分引入传统整数阶GRU网络,设计了基于分数阶梯度下降的GRU网络(FGRU);其次,结...
为解决传统梯度下降算法训练门控循环单元网络(GRU)时收敛速度较慢的问题,提出了一种基于Adam优化的分数阶GRU神经网络的轴承故障诊断方法。首先,将分数阶微积分引入传统整数阶GRU网络,设计了基于分数阶梯度下降的GRU网络(FGRU);其次,结合Adam算法的自适应学习率和动量机制,构建了Adam分数阶GRU网络(Adam-FGRU)。实验结果表明,Adam-FGRU不仅显著提高了GRU网络的收敛速度和诊断精度,而且在不同分数阶参数条件下均表现出较高的诊断精度,避免了由于分数阶参数选择不当引起的诊断误差。
展开更多
关键词
故障诊断
GRU神经网络
分数阶梯度下降
adam
算法
在线阅读
下载PDF
职称材料
基于Adam优化的卷积神经网络随机共振现象研究
被引量:
1
2
作者
尚天鹏
王友国
《计算机与数字工程》
2023年第11期2553-2556,共4页
文中利用随机共振对改善Adam优化的卷积神经网络在算力有限下的性能进行了研究。对反向传播算法采用动量梯度下降算法去更新参数的网络进行Adam优化,利用MNIST手写数字集进行仿真实验,在论文实验条件下,跟动量梯度下降算法的网络相比,A...
文中利用随机共振对改善Adam优化的卷积神经网络在算力有限下的性能进行了研究。对反向传播算法采用动量梯度下降算法去更新参数的网络进行Adam优化,利用MNIST手写数字集进行仿真实验,在论文实验条件下,跟动量梯度下降算法的网络相比,Adam优化的网络在前15次epoch下交叉熵降低,增加训练样本数量可以使得交叉熵的降低幅度减小。论文对Adam优化的卷积神经网络的输出神经元加入高斯噪声,仿真结果表明,交叉熵减少百分比出现了随机共振现象,增加训练样本数量可以使得随机共振现象的效果减小。
展开更多
关键词
梯度下降算法
adam
优化
高斯噪声
仿真实验
在线阅读
下载PDF
职称材料
基于改进ALEXNET卷积神经网络的电容层析成像三维图像重建
被引量:
5
3
作者
李岩
王璐
李佳琪
《哈尔滨理工大学学报》
CAS
北大核心
2020年第4期109-115,共7页
针对卷积神经网络三维图像重建算法的样本训练速度慢和成像精度低的问题,提出一种根据不同流型的AlexNet神经网络数据训练方法。首先通过SVM算法将输入的电容样本数据按照流型分类,然后采用单一流型样本数据训练相应的AlexNet卷积神经网...
针对卷积神经网络三维图像重建算法的样本训练速度慢和成像精度低的问题,提出一种根据不同流型的AlexNet神经网络数据训练方法。首先通过SVM算法将输入的电容样本数据按照流型分类,然后采用单一流型样本数据训练相应的AlexNet卷积神经网络,使得某一流型的神经网络的输入样本数据类型简单、样本数量少和神经网络规模小。同时采用具有冲量和自适应学习速率的Adam算法,减少了训练时的误差振荡,加速神经网络的收敛。通过对比改进的AlexNet卷积神经网络算法和LBP算法的成像结果,表明优化后的AlexNet在成像精度和速度上有显著提升。
展开更多
关键词
电容层析成像
三维图像重建
AlexNet卷积神经网络
adam
梯度下降算法
在线阅读
下载PDF
职称材料
一种改进的自适应动量梯度下降算法
被引量:
10
4
作者
姜志侠
宋佳帅
刘宇宁
《华中科技大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2023年第5期137-143,共7页
为改进Adam算法存在的全局收敛性较差的问题,提出一个带有角系数的AngleAdam算法.该算法利用两次连续梯度间的角度信息自适应控制步长,一定程度改进了Adam算法全局收敛性较差的问题,提升了优化能力.采用在线学习框架,对算法从遗憾界的...
为改进Adam算法存在的全局收敛性较差的问题,提出一个带有角系数的AngleAdam算法.该算法利用两次连续梯度间的角度信息自适应控制步长,一定程度改进了Adam算法全局收敛性较差的问题,提升了优化能力.采用在线学习框架,对算法从遗憾界的角度进行收敛性分析,证明了AngleAdam具有次线性的遗憾.基于构造的三个非凸函数和深度神经网络模型,对AngleAdam算法的优化能力进行实验,实验结果表明该算法可得到较好的优化结果.
展开更多
关键词
机器学习
梯度下降类算法
adam
算法
全局收敛性
遗憾界
角度信息
原文传递
基于差分隐私的广告推荐算法
被引量:
3
5
作者
田蕾
葛丽娜
《计算机应用》
CSCD
北大核心
2023年第11期3346-3350,共5页
随着移动互联网行业进入快速发展阶段,用户数据以及浏览数据大幅增加,所以准确把握用户潜在需求和提高广告推荐效果显得极其重要。DeepFM模型作为目前较为先进的推荐方法,可以从原始特征中抽取到各种复杂度特征,但模型没有对数据进行防...
随着移动互联网行业进入快速发展阶段,用户数据以及浏览数据大幅增加,所以准确把握用户潜在需求和提高广告推荐效果显得极其重要。DeepFM模型作为目前较为先进的推荐方法,可以从原始特征中抽取到各种复杂度特征,但模型没有对数据进行防护。为了在DeepFM模型中实现隐私保护,提出一种基于差分隐私的DeepFM模型——DP-DeepFM,在模型训练过程中将高斯噪声加入Adam优化算法中,并进行梯度裁剪,防止加入噪声过大引发模型性能下降。在广告Criteo数据集上的实验结果表明,与DeepFM相比,DP-DeepFM的准确率仅下降了0.44个百分点,但它能提供差分隐私保护,更具安全性。
展开更多
关键词
差分隐私
推荐算法
梯度下降
深度学习
adam
优化算法
在线阅读
下载PDF
职称材料
一种修正学习率的梯度下降算法
被引量:
5
6
作者
姜文翰
姜志侠
孙雪莲
《长春理工大学学报(自然科学版)》
2023年第6期112-120,共9页
近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数...
近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数加权平均对Adam算法中学习率进行修正,提出了MonAdam算法。通过在线学习框架,说明MonAdam算法具有O(√T)的遗憾界。经过大量实验在多种非凸函数和深度神经网络模型中将MonAdam算法与其他算法进行对比,结果表明该算法收敛性较好。
展开更多
关键词
梯度下降算法
adam
算法
收敛性
遗憾界
学习率
在线阅读
下载PDF
职称材料
基于自适应梯度下降算法的扬声器系统辨识
7
作者
曹南
赵磊
《计量科学与技术》
2024年第3期38-44,共7页
扬声器模型参数辨识中,常规的固定步长梯度下降算法耗时较长,且在初始参数误差较大时,参数辨识常常会不稳定。因此,提出了一种在频域中识别扬声器系统参数的变步长梯度下降算法。变步长梯度下降方法监测识别参数辨识的趋势,并自适应地...
扬声器模型参数辨识中,常规的固定步长梯度下降算法耗时较长,且在初始参数误差较大时,参数辨识常常会不稳定。因此,提出了一种在频域中识别扬声器系统参数的变步长梯度下降算法。变步长梯度下降方法监测识别参数辨识的趋势,并自适应地调整相应的学习速率。该自适应方法消除了手动调整学习速率的需要。此外,由于直接计算复杂模型的梯度并不容易,采用了中心差分的方法近似计算模型的梯度。通过建立动圈扬声器模型,设置不同初值和迭代误差结束标准,比较了固定步长方法、最小二乘法和自适应步长方法的收敛性以及辨识效果,并使用微型扬声器进行测试验证。仿真和实验表明,该方法具有更高的效率,对初始误差有更好的普适性和鲁棒性。
展开更多
关键词
计量学
扬声器
自适应
梯度下降算法
adam
算法
系统辨识
原文传递
题名
基于Adam的分数阶GRU神经网络的轴承故障诊断
1
作者
李赛
雷欣怡
丁芝侠
张永
机构
武汉工程大学电气信息学院
武汉科技大学冶金自动化与检测技术教育部工程研究中心
出处
《自动化与仪表》
2025年第4期56-60,66,共6页
基金
冶金自动化与检测技术教育部工程研究中心开放基金项目(MADTOF2023B01)
武汉工程大学研究生创新基金项目(CX2023552)
国家自然科学基金面上项目(62176189)。
文摘
为解决传统梯度下降算法训练门控循环单元网络(GRU)时收敛速度较慢的问题,提出了一种基于Adam优化的分数阶GRU神经网络的轴承故障诊断方法。首先,将分数阶微积分引入传统整数阶GRU网络,设计了基于分数阶梯度下降的GRU网络(FGRU);其次,结合Adam算法的自适应学习率和动量机制,构建了Adam分数阶GRU网络(Adam-FGRU)。实验结果表明,Adam-FGRU不仅显著提高了GRU网络的收敛速度和诊断精度,而且在不同分数阶参数条件下均表现出较高的诊断精度,避免了由于分数阶参数选择不当引起的诊断误差。
关键词
故障诊断
GRU神经网络
分数阶梯度下降
adam
算法
Keywords
fault diagnosis
GRU neural network
fractional
gradient
descent
adam
algorithm
分类号
TP277 [自动化与计算机技术—检测技术与自动化装置]
在线阅读
下载PDF
职称材料
题名
基于Adam优化的卷积神经网络随机共振现象研究
被引量:
1
2
作者
尚天鹏
王友国
机构
南京邮电大学理学院
出处
《计算机与数字工程》
2023年第11期2553-2556,共4页
基金
国家自然科学基金项目(编号:62071248)
江苏省研究生科研创新计划(编号:KYCX20_0730)资助。
文摘
文中利用随机共振对改善Adam优化的卷积神经网络在算力有限下的性能进行了研究。对反向传播算法采用动量梯度下降算法去更新参数的网络进行Adam优化,利用MNIST手写数字集进行仿真实验,在论文实验条件下,跟动量梯度下降算法的网络相比,Adam优化的网络在前15次epoch下交叉熵降低,增加训练样本数量可以使得交叉熵的降低幅度减小。论文对Adam优化的卷积神经网络的输出神经元加入高斯噪声,仿真结果表明,交叉熵减少百分比出现了随机共振现象,增加训练样本数量可以使得随机共振现象的效果减小。
关键词
梯度下降算法
adam
优化
高斯噪声
仿真实验
Keywords
gradient
descent
algorithm
adam
optimization
Gaussian noise
simulation experiment
分类号
TP183 [自动化与计算机技术—控制理论与控制工程]
TN911.7 [电子电信—通信与信息系统]
在线阅读
下载PDF
职称材料
题名
基于改进ALEXNET卷积神经网络的电容层析成像三维图像重建
被引量:
5
3
作者
李岩
王璐
李佳琪
机构
哈尔滨理工大学计算机科学与技术学院
出处
《哈尔滨理工大学学报》
CAS
北大核心
2020年第4期109-115,共7页
基金
黑龙江省自然科学基金(F2015038).
文摘
针对卷积神经网络三维图像重建算法的样本训练速度慢和成像精度低的问题,提出一种根据不同流型的AlexNet神经网络数据训练方法。首先通过SVM算法将输入的电容样本数据按照流型分类,然后采用单一流型样本数据训练相应的AlexNet卷积神经网络,使得某一流型的神经网络的输入样本数据类型简单、样本数量少和神经网络规模小。同时采用具有冲量和自适应学习速率的Adam算法,减少了训练时的误差振荡,加速神经网络的收敛。通过对比改进的AlexNet卷积神经网络算法和LBP算法的成像结果,表明优化后的AlexNet在成像精度和速度上有显著提升。
关键词
电容层析成像
三维图像重建
AlexNet卷积神经网络
adam
梯度下降算法
Keywords
electrical capacitance tomography
three-dimensional image reconstruction
AlexNet convolutional neural network
adam gradient descent algorithm
分类号
TP391.4 [自动化与计算机技术—计算机应用技术]
在线阅读
下载PDF
职称材料
题名
一种改进的自适应动量梯度下降算法
被引量:
10
4
作者
姜志侠
宋佳帅
刘宇宁
机构
长春理工大学数学与统计学院
中电金信软件有限公司
出处
《华中科技大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2023年第5期137-143,共7页
基金
吉林省自然科学基金资助项目(YDZJ202201ZYTS519)
国家自然科学基金资助项目(11426045).
文摘
为改进Adam算法存在的全局收敛性较差的问题,提出一个带有角系数的AngleAdam算法.该算法利用两次连续梯度间的角度信息自适应控制步长,一定程度改进了Adam算法全局收敛性较差的问题,提升了优化能力.采用在线学习框架,对算法从遗憾界的角度进行收敛性分析,证明了AngleAdam具有次线性的遗憾.基于构造的三个非凸函数和深度神经网络模型,对AngleAdam算法的优化能力进行实验,实验结果表明该算法可得到较好的优化结果.
关键词
机器学习
梯度下降类算法
adam
算法
全局收敛性
遗憾界
角度信息
Keywords
machine learning
gradient
descent
algorithm
adam
algorithm
global convergence
regret bound
angle information
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
原文传递
题名
基于差分隐私的广告推荐算法
被引量:
3
5
作者
田蕾
葛丽娜
机构
广西民族大学电子信息学院
广西民族大学网络通信工程重点实验室
广西民族大学人工智能学院
广西混杂计算与集成电路设计分析重点实验室(广西民族大学)
出处
《计算机应用》
CSCD
北大核心
2023年第11期3346-3350,共5页
基金
国家自然科学基金资助项目(61862007)。
文摘
随着移动互联网行业进入快速发展阶段,用户数据以及浏览数据大幅增加,所以准确把握用户潜在需求和提高广告推荐效果显得极其重要。DeepFM模型作为目前较为先进的推荐方法,可以从原始特征中抽取到各种复杂度特征,但模型没有对数据进行防护。为了在DeepFM模型中实现隐私保护,提出一种基于差分隐私的DeepFM模型——DP-DeepFM,在模型训练过程中将高斯噪声加入Adam优化算法中,并进行梯度裁剪,防止加入噪声过大引发模型性能下降。在广告Criteo数据集上的实验结果表明,与DeepFM相比,DP-DeepFM的准确率仅下降了0.44个百分点,但它能提供差分隐私保护,更具安全性。
关键词
差分隐私
推荐算法
梯度下降
深度学习
adam
优化算法
Keywords
Differential Privacy(DP)
recommendation
algorithm
gradient
descent
deep learning
adam
optimization
algorithm
分类号
TP302.1 [自动化与计算机技术—计算机系统结构]
在线阅读
下载PDF
职称材料
题名
一种修正学习率的梯度下降算法
被引量:
5
6
作者
姜文翰
姜志侠
孙雪莲
机构
长春理工大学数学与统计学院
出处
《长春理工大学学报(自然科学版)》
2023年第6期112-120,共9页
基金
国家自然科学基金(11426045)
吉林省自然科学基金(YDZJ202201ZYTS519,YDZJ202201ZYTS585)。
文摘
近年来,随着神经网络的广泛应用,梯度下降算法成为神经网络调整参数的核心优化算法。随着SGDM、AdaGrad、RMPprop、Adam等算法被提出,神经网络的性能有了极大的提升。为改善Adam算法由极端学习率引起的泛化能力较差问题,利用梯度的指数加权平均对Adam算法中学习率进行修正,提出了MonAdam算法。通过在线学习框架,说明MonAdam算法具有O(√T)的遗憾界。经过大量实验在多种非凸函数和深度神经网络模型中将MonAdam算法与其他算法进行对比,结果表明该算法收敛性较好。
关键词
梯度下降算法
adam
算法
收敛性
遗憾界
学习率
Keywords
gradient
descent
algorithm
adam
algorithm
convergence
regret bound
learning rate
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
在线阅读
下载PDF
职称材料
题名
基于自适应梯度下降算法的扬声器系统辨识
7
作者
曹南
赵磊
机构
瑞声科技(南京)有限公司
出处
《计量科学与技术》
2024年第3期38-44,共7页
文摘
扬声器模型参数辨识中,常规的固定步长梯度下降算法耗时较长,且在初始参数误差较大时,参数辨识常常会不稳定。因此,提出了一种在频域中识别扬声器系统参数的变步长梯度下降算法。变步长梯度下降方法监测识别参数辨识的趋势,并自适应地调整相应的学习速率。该自适应方法消除了手动调整学习速率的需要。此外,由于直接计算复杂模型的梯度并不容易,采用了中心差分的方法近似计算模型的梯度。通过建立动圈扬声器模型,设置不同初值和迭代误差结束标准,比较了固定步长方法、最小二乘法和自适应步长方法的收敛性以及辨识效果,并使用微型扬声器进行测试验证。仿真和实验表明,该方法具有更高的效率,对初始误差有更好的普适性和鲁棒性。
关键词
计量学
扬声器
自适应
梯度下降算法
adam
算法
系统辨识
Keywords
metrology
loudspeakers
adaptive
algorithm
s
gradient
descent
algorithm
adam
algorithm
system identification
分类号
TB95 [机械工程—测试计量技术及仪器]
原文传递
题名
作者
出处
发文年
被引量
操作
1
基于Adam的分数阶GRU神经网络的轴承故障诊断
李赛
雷欣怡
丁芝侠
张永
《自动化与仪表》
2025
0
在线阅读
下载PDF
职称材料
2
基于Adam优化的卷积神经网络随机共振现象研究
尚天鹏
王友国
《计算机与数字工程》
2023
1
在线阅读
下载PDF
职称材料
3
基于改进ALEXNET卷积神经网络的电容层析成像三维图像重建
李岩
王璐
李佳琪
《哈尔滨理工大学学报》
CAS
北大核心
2020
5
在线阅读
下载PDF
职称材料
4
一种改进的自适应动量梯度下降算法
姜志侠
宋佳帅
刘宇宁
《华中科技大学学报(自然科学版)》
EI
CAS
CSCD
北大核心
2023
10
原文传递
5
基于差分隐私的广告推荐算法
田蕾
葛丽娜
《计算机应用》
CSCD
北大核心
2023
3
在线阅读
下载PDF
职称材料
6
一种修正学习率的梯度下降算法
姜文翰
姜志侠
孙雪莲
《长春理工大学学报(自然科学版)》
2023
5
在线阅读
下载PDF
职称材料
7
基于自适应梯度下降算法的扬声器系统辨识
曹南
赵磊
《计量科学与技术》
2024
0
原文传递
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部