期刊文献+
共找到31篇文章
< 1 2 >
每页显示 20 50 100
A Hybrid Conjugate Gradient Algorithm for Solving Relative Orientation of Big Rotation Angle Stereo Pair 被引量:4
1
作者 Jiatian LI Congcong WANG +5 位作者 Chenglin JIA Yiru NIU Yu WANG Wenjing ZHANG Huajing WU Jian LI 《Journal of Geodesy and Geoinformation Science》 2020年第2期62-70,共9页
The fast convergence without initial value dependence is the key to solving large angle relative orientation.Therefore,a hybrid conjugate gradient algorithm is proposed in this paper.The concrete process is:①stochast... The fast convergence without initial value dependence is the key to solving large angle relative orientation.Therefore,a hybrid conjugate gradient algorithm is proposed in this paper.The concrete process is:①stochastic hill climbing(SHC)algorithm is used to make a random disturbance to the given initial value of the relative orientation element,and the new value to guarantee the optimization direction is generated.②In local optimization,a super-linear convergent conjugate gradient method is used to replace the steepest descent method in relative orientation to improve its convergence rate.③The global convergence condition is that the calculation error is less than the prescribed limit error.The comparison experiment shows that the method proposed in this paper is independent of the initial value,and has higher accuracy and fewer iterations. 展开更多
关键词 relative orientation big rotation angle global convergence stochastic hill climbing conjugate gradient algorithm
在线阅读 下载PDF
MINI-BATCH STOCHASTIC CONJUGATE GRADIENT ALGORITHMS WITH MINIMAL VARIANCE
2
作者 Caixia Kou Feifei Gao Yu-Hong Dai 《Journal of Computational Mathematics》 2025年第5期1045-1062,共18页
Stochastic gradient descent(SGD)methods have gained widespread popularity for solving large-scale optimization problems.However,the inherent variance in SGD often leads to slow convergence rates.We introduce a family ... Stochastic gradient descent(SGD)methods have gained widespread popularity for solving large-scale optimization problems.However,the inherent variance in SGD often leads to slow convergence rates.We introduce a family of unbiased stochastic gradient estimators that encompasses existing estimators from the literature and identify a gradient estimator that not only maintains unbiasedness but also achieves minimal variance.Compared with the existing estimator used in SGD algorithms,the proposed estimator demonstrates a significant reduction in variance.By utilizing this stochastic gradient estimator to approximate the full gradient,we propose two mini-batch stochastic conjugate gradient algorithms with minimal variance.Under the assumptions of strong convexity and smoothness on the objective function,we prove that the two algorithms achieve linear convergence rates.Numerical experiments validate the effectiveness of the proposed gradient estimator in reducing variance and demonstrate that the two stochastic conjugate gradient algorithms exhibit accelerated convergence rates and enhanced stability. 展开更多
关键词 stochastic gradient descent Minimal variance stochastic conjugate gradient stochastic gradient estimator
原文传递
一种基于负动量框架的随机方差缩减共轭梯度算法
3
作者 李巧 刘泽显 《数学进展》 北大核心 2026年第2期431-449,共19页
本文将负动量框架与戴—寇共轭参数结合,利用Fletcher-Reeves(FR)共轭参数进行截断,提出基于负动量框架的共轭参数.将新的共轭参数和新设计的改进的强Wolfe线搜索条件结合,提出一种基于负动量框架的随机方差缩减共轭梯度算法.在一般假... 本文将负动量框架与戴—寇共轭参数结合,利用Fletcher-Reeves(FR)共轭参数进行截断,提出基于负动量框架的共轭参数.将新的共轭参数和新设计的改进的强Wolfe线搜索条件结合,提出一种基于负动量框架的随机方差缩减共轭梯度算法.在一般假设条件下,针对强凸光滑函数,建立新算法的收敛性.针对机器学习中三种常见的模型(logistic,hinge,sqhinge),选择四组数据集进行测试,数值实验表明,新算法在损失函数值下降速度及运行时间方面均优于随机方差缩减共轭梯度算法. 展开更多
关键词 随机方差缩减共轭梯度算法 负动量框架 共轭参数βNDK-NFR 改进强Wolfe线搜索
原文传递
An anti-main-lobe jamming algorithm for airborne early warning radar based on APC-SVRGD joint optimization 被引量:3
4
作者 PENG Fang WU Jun +2 位作者 WANG Shuai LI Zhijun XIANG Jianjun 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2022年第1期134-143,共10页
Main lobe jamming seriously affects the detection performance of airborne early warning radar.The joint processing of polarization-space has become an effective way to suppress the main lobe jamming.To avoid the main ... Main lobe jamming seriously affects the detection performance of airborne early warning radar.The joint processing of polarization-space has become an effective way to suppress the main lobe jamming.To avoid the main beam distortion and wave crest migration caused by the main lobe jamming in adaptive beamforming,a joint optimization algorithm based on adaptive polarization canceller(APC)and stochastic variance reduction gradient descent(SVRGD)is proposed.First,the polarization plane array structure and receiving signal model based on primary and auxiliary array cancellation are established,and an APC iterative algorithm model is constructed to calculate the optimal weight vector of the auxiliary channel.Second,based on the stochastic gradient descent principle,the variance reduction method is introduced to modify the gradient through internal and external iteration to reduce the variance of the stochastic gradient estimation,the airspace optimal weight vector is calculated and the equivalent weight vector is introduced to measure the beamforming effect.Third,by setting up a planar polarization array simulation scene,the performance of the algorithm against the interference of the main lobe and the side lobe is analyzed,and the effectiveness of the algorithm is verified under the condition of short snapshot number and certain signal to interference plus noise ratio. 展开更多
关键词 airborne early warning radar adaptive beamforming main-lobe interference suppression adaptive polarization canceller(APC) stochastic variance reduction gradient descent(SVRGD)
在线阅读 下载PDF
基于归一化的自适应方差缩减方法
5
作者 姜伟 杨斯凡 +1 位作者 王一博 张利军 《软件学报》 北大核心 2025年第11期4893-4905,共13页
随机优化算法是机器学习中处理大规模数据和复杂模型的重要方法.其中,方差缩减方法(如STORM算法)因其在随机非凸优化问题中能够实现最优的O(T^(-1/3))收敛速率而受到广泛关注.然而,传统的方差缩减方法通常需要依赖特定的问题参数(如光... 随机优化算法是机器学习中处理大规模数据和复杂模型的重要方法.其中,方差缩减方法(如STORM算法)因其在随机非凸优化问题中能够实现最优的O(T^(-1/3))收敛速率而受到广泛关注.然而,传统的方差缩减方法通常需要依赖特定的问题参数(如光滑系数、噪声方差和梯度上界)来设置学习率和动量,使得它们在实际应用中难以直接使用.为了解决这一问题,提出了一种基于归一化的自适应方差缩减方法,该方法无需预先知道问题参数,仍然能够实现最优的收敛速率.与现有的自适应方差缩减方法相比,所提方法具有以下显著优势:(1)无需依赖额外假设,如梯度有界、函数值有界或极大的初始批量大小;(2)实现了最优的O(T^(-1/3))收敛速率,不包含额外的O(logT)项;(3)证明过程简洁明了,便于推广到其他随机优化问题.最后,通过数值实验将该方法与其他方法进行了对比,验证了其优越性. 展开更多
关键词 随机优化 非凸优化 自适应算法 方差缩减 收敛性分析
在线阅读 下载PDF
基于数据压缩和梯度追踪的方差缩减的联邦优化算法 被引量:2
6
作者 贾泽慧 李登辉 +1 位作者 刘治宇 黄洁茹 《南京理工大学学报》 北大核心 2025年第2期155-166,共12页
为克服联邦学习中的计算成本、通信成本以及数据异质等挑战,该文提出了一种基于数据压缩和梯度追踪的方差缩减的联邦优化算法(FedCOMGATE-VR)。与传统依赖简单随机梯度估计的联邦学习算法不同,FedCOMGATE-VR通过引入方差缩减的随机梯度... 为克服联邦学习中的计算成本、通信成本以及数据异质等挑战,该文提出了一种基于数据压缩和梯度追踪的方差缩减的联邦优化算法(FedCOMGATE-VR)。与传统依赖简单随机梯度估计的联邦学习算法不同,FedCOMGATE-VR通过引入方差缩减的随机梯度估计,能够使用更大的步长,从而加速算法收敛;同时,采用数据压缩技术处理上传的模型参数,减少了通信成本;此外,结合梯度追踪技术,准确追踪局部梯度与全局梯度之间的偏差,有效应对数据异质的联邦学习场景。理论方面,该文在非凸情形下给出了算法的次线性收敛率,并在强凸情形下给出了算法的线性收敛率。此外,该文将FedCOMGATE-VR用于对Fashion-MNIST和CIFAR-10数据集进行分类训练,并与已有算法在不同参数设置(步长、本地更新次数等)下进行对比实验。实验结果表明,FedCOMGATE-VR能够适应复杂的异质数据环境,且在达到相同预设训练准确率时,该算法较FedCOMGATE通信次数降低约20%,总迭代次数降低约66%,有效降低了通信和计算成本。 展开更多
关键词 联邦学习 随机梯度下降 方差缩减 数据异质
在线阅读 下载PDF
基于随机采样的方差缩减优化算法
7
作者 郭振华 闫瑞栋 +2 位作者 邱志勇 赵雅倩 李仁刚 《计算机科学与探索》 北大核心 2025年第3期667-681,共15页
随机梯度下降(SGD)算法因其性能优异而引起了机器学习和深度学习等领域研究人员的广泛关注。然而,SGD使用单样本随机梯度近似样本全梯度导致算法在迭代过程中引入了额外的方差,使得算法的收敛曲线震荡甚至发散,导致其收敛速率缓慢。因此... 随机梯度下降(SGD)算法因其性能优异而引起了机器学习和深度学习等领域研究人员的广泛关注。然而,SGD使用单样本随机梯度近似样本全梯度导致算法在迭代过程中引入了额外的方差,使得算法的收敛曲线震荡甚至发散,导致其收敛速率缓慢。因此,有效减小方差成为当前关键挑战。提出了一种基于小批量随机采样的方差缩减优化算法(DM-SRG),并应用于求解凸优化及非凸优化问题。算法主要特征在于设计了内外双循环结构:外循环结构采用小批量随机样本计算梯度近似全梯度,以达到减少梯度计算开销的目的;内循环结构采用小批量随机样本计算梯度并代替单样本随机梯度,提升算法收敛稳定性。针对非凸目标函数与凸目标函数,理论分析证明了DMSRG算法具有次线性收敛速率。此外,设计了基于计算单元性能评估模型的动态样本容量调整策略,以提高系统训练效率。为评估算法的有效性,分别在不同规模的真实数据集上开展了数值模拟实验。实验结果表明算法较对比算法损失函数减少18.1%并且平均耗时降低8.22%。 展开更多
关键词 随机梯度下降 方差缩减 凸优化 非凸优化 收敛速率
在线阅读 下载PDF
基于SVRGD的机载预警雷达自适应波束形成算法 被引量:4
8
作者 彭芳 吴军 +1 位作者 王帅 向建军 《系统工程与电子技术》 EI CSCD 北大核心 2021年第1期83-90,共8页
自适应波束形成是机载预警雷达数字信号处理的一个关键环节。针对传统最小均方误差(least mean square,LMS)算法在短快拍数条件下的波束形成性能下降以及因迭代震荡易收敛于局部最优值的问题,提出了一种基于机器学习的随机方差减小梯度... 自适应波束形成是机载预警雷达数字信号处理的一个关键环节。针对传统最小均方误差(least mean square,LMS)算法在短快拍数条件下的波束形成性能下降以及因迭代震荡易收敛于局部最优值的问题,提出了一种基于机器学习的随机方差减小梯度下降(stochastic variance reduction gradient descent,SVRGD)自适应波束形成方法。首先,建立面阵列接收信号数据模型。其次,基于随机梯度下降原理,引入方差缩减法通过内外循环迭代方式进行梯度修正,以减小随机梯度估计的方差,建立算法模型与实现流程。最后,通过设置平面阵列仿真场景,分析SVRGD自适应波束形成算法在波束形成、抗干扰、收敛速度等方面的性能,验证了该算法在低快拍数、强干扰和强噪声背景下具有的优良能力。 展开更多
关键词 机载预警雷达 自适应波束形成 随机梯度下降 随机方差减小梯度下降 机器学习
在线阅读 下载PDF
用改进的共轭梯度算法解波阻抗反演问题 被引量:3
9
作者 张赛民 周竹生 刘海飞 《物探化探计算技术》 CAS CSCD 2009年第4期338-343,共6页
研究快速有效的波阻抗反演算法,是地震反演中一直追求的目标。这里从目标函数出发,推导的反演方程,在常规共轭梯度算法的基础上,对算法搜索的共轭梯度方向提出了具体的改进措施,并在阻尼项及松弛因子的给定上实现了自适应化。另外,在整... 研究快速有效的波阻抗反演算法,是地震反演中一直追求的目标。这里从目标函数出发,推导的反演方程,在常规共轭梯度算法的基础上,对算法搜索的共轭梯度方向提出了具体的改进措施,并在阻尼项及松弛因子的给定上实现了自适应化。另外,在整个算法过程中实现了向量运算,无需额外的内存。通过合成记录及实测资料试算对比发现,该算法具有精度高,运算速度快及抗病态能力强的特点。 展开更多
关键词 波阻抗反演 共轭梯度算法 随机逆 自适应算法
在线阅读 下载PDF
带有方差减小的加权零阶随机梯度下降算法 被引量:6
10
作者 鲁淑霞 张罗幻 +1 位作者 蔡莲香 孙丽丽 《河北大学学报(自然科学版)》 CAS 北大核心 2019年第5期536-546,共11页
随机梯度下降(stochastic gradient descent,SGD)算法是机器学习问题中的高效求解方法之一.但是,对于非平衡数据,传统的随机梯度下降算法,在训练时多数类点被抽到的概率远大于少数类点,易导致计算不平衡;对于目标函数不可导或不易求导... 随机梯度下降(stochastic gradient descent,SGD)算法是机器学习问题中的高效求解方法之一.但是,对于非平衡数据,传统的随机梯度下降算法,在训练时多数类点被抽到的概率远大于少数类点,易导致计算不平衡;对于目标函数不可导或不易求导的问题,计算代价太大或无法进行计算;在每次迭代中利用单个样本梯度近似代替全梯度,这必然会产生方差,严重影响算法的分类性能.针对上述问题,提出了带有方差减小的加权零阶随机梯度下降算法,考虑了数据的间隔分布情况,在目标函数中引入了间隔均值项,并对多数类样例赋予了较小的权值,对少数类样例赋予较大的权值.在对优化问题的求解中,采用零阶优化的方法对梯度进行估计,并且引入了方差减小策略.在一些非平衡数据集上的实验验证了所提算法的有效性,并有效解决了上述问题. 展开更多
关键词 零阶优化 随机梯度下降 方差减小 非平衡数据 支持向量机
在线阅读 下载PDF
大角度立体像对相对定向的混合共轭梯度算法 被引量:1
11
作者 李佳田 王聪聪 +5 位作者 贾成林 牛一如 王瑜 张文靖 吴华静 李键 《测绘学报》 EI CSCD 北大核心 2019年第3期322-329,共8页
无初值依赖的快速收敛是大角度相对定向解算的关键所在。为此,本文提出一种混合共轭梯度算法,具体过程是:①采用随机爬山算法对给定的相对定向元素初值进行随机扰动,产生保证优化方向的初值;②局部优化中以超线性收敛的共轭梯度法取代... 无初值依赖的快速收敛是大角度相对定向解算的关键所在。为此,本文提出一种混合共轭梯度算法,具体过程是:①采用随机爬山算法对给定的相对定向元素初值进行随机扰动,产生保证优化方向的初值;②局部优化中以超线性收敛的共轭梯度法取代相对定向中的最速下降法,以提高其收敛速度;③全局收敛条件为计算误差小于规定的限差。对比试验表明,混合共轭梯度算法无初值依赖性,具有较高的解算精度和较少的迭代次数。 展开更多
关键词 相对定向 大角度 全局收敛 随机爬山算法 共轭梯度法
在线阅读 下载PDF
批量减数更新方差缩减梯度下降算法BSUG 被引量:6
12
作者 宋杰 朱勇 许冰 《计算机工程与应用》 CSCD 北大核心 2020年第22期117-123,共7页
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达... 机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。 展开更多
关键词 机器学习 优化 小批量 减数更新 随机方差缩减梯度法(SVRG)
在线阅读 下载PDF
基于随机方差调整梯度的非负矩阵分解 被引量:2
13
作者 史加荣 白姗姗 《吉林大学学报(理学版)》 CAS 北大核心 2021年第1期128-135,共8页
针对求解非负矩阵分解的乘性更新规则存在计算复杂度高且迭代效率低等缺点,提出一种随机方差参数调整梯度的方法.将方差缩减策略和乘性更新规则相结合,通过引入一个调整随机梯度估计量的参数校正梯度下降方向使其偏差与方差达到平衡,从... 针对求解非负矩阵分解的乘性更新规则存在计算复杂度高且迭代效率低等缺点,提出一种随机方差参数调整梯度的方法.将方差缩减策略和乘性更新规则相结合,通过引入一个调整随机梯度估计量的参数校正梯度下降方向使其偏差与方差达到平衡,从而能快速、准确地逼近最优解.在真实数据集上进行仿真实验,结果验证了该算法的可行性和有效性. 展开更多
关键词 非负矩阵分解 随机梯度下降 参数调整梯度 方差缩减 乘性更新
在线阅读 下载PDF
基于梯度的随机微粒群算法 被引量:1
14
作者 王建丽 夏桂梅 王希云 《太原师范学院学报(自然科学版)》 2010年第2期44-47,共4页
在随机微粒群算法和函数梯度信息基础上,文章提出了基于梯度的随机微粒群算法.该算法既有随机微粒群算法的优点,又有梯度法的较高收敛性和精度,数值计算表明算法对于求解连续可微函数的全局优化问题是非常有效的.
关键词 随机微粒群算法 共轭梯度法 最速下降法 连续可微函数
在线阅读 下载PDF
分布式随机方差消减梯度下降算法topkSVRG 被引量:5
15
作者 王建飞 亢良伊 +1 位作者 刘杰 叶丹 《计算机科学与探索》 CSCD 北大核心 2018年第7期1047-1054,共8页
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(... 机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率。SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topk SVRG。改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新。每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛。理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛。 展开更多
关键词 机器学习 优化 随机梯度下降(SGD) 随机方差消减梯度法(SVRG) 分布式计算
在线阅读 下载PDF
基于集成重要性采样的随机梯度下降算法 被引量:3
16
作者 张浩 鲁淑霞 《南京理工大学学报》 CAS CSCD 北大核心 2024年第3期342-350,共9页
许多机器学习和深度学习问题都可以使用随机梯度优化算法求解,目前流行的算法大多通过均匀采样从样本集中抽取样本计算梯度估计。然而,随机采样的梯度估计会带来较大的方差,这个方差会随着优化的进行而累积,降低算法收敛速度。为缓解这... 许多机器学习和深度学习问题都可以使用随机梯度优化算法求解,目前流行的算法大多通过均匀采样从样本集中抽取样本计算梯度估计。然而,随机采样的梯度估计会带来较大的方差,这个方差会随着优化的进行而累积,降低算法收敛速度。为缓解这一现象,可以为每个样本赋予不同的采样概率。该文基于集成学习的思想,提出了一种新的选取非均匀采样分布的算法。算法的主要目的是选取一个采样器权重,使梯度估计的方差尽可能小。所提算法由多个简单采样器组成,采样权重为每个简单采样器分配贡献权重,从而得到最终的采样分布。集成重要性采样算法可以和以往的随机梯度优化方法任意结合,该文给出了使用集成重要性采样的随机梯度下降算法。在试验中,可以直观地看到算法起效的原因。在真实数据集中,展示了所提算法减小方差的效果,与其他算法相比具有一定优势。 展开更多
关键词 集成学习 重要性采样 采样器 随机梯度下降 方差减少
在线阅读 下载PDF
α噪声下基于随机共振的最大相关熵频谱感知 被引量:2
17
作者 李如雪 鲁进 罗聪 《数据采集与处理》 CSCD 北大核心 2023年第6期1342-1352,共11页
α噪声下的频谱感知成为近年来的研究热点,该噪声的统计模型具有明显的脉冲性和拖尾性,并且在微弱信号条件下,信号特征不够明显。为此提出了基于随机共振的最大相关熵频谱感知方法,该方法通过随机共振模型中粒子在双势阱间的跃迁,将α... α噪声下的频谱感知成为近年来的研究热点,该噪声的统计模型具有明显的脉冲性和拖尾性,并且在微弱信号条件下,信号特征不够明显。为此提出了基于随机共振的最大相关熵频谱感知方法,该方法通过随机共振模型中粒子在双势阱间的跃迁,将α噪声的部分能量转移到信号中,以提高信号的输出信噪比。采用最大相关熵方法构建高阶统计量,检测随机共振后的输出信号,并联合共轭梯度下降法获取最佳目标函数,实现频谱感知。仿真结果表明,该算法在低信噪比条件下能够有效提高检测性能。 展开更多
关键词 频谱感知 随机共振 α噪声 共轭梯度下降法 最大相关熵
在线阅读 下载PDF
面向大规模数据主题建模的方差减小的随机变分推理算法 被引量:1
18
作者 刘张虎 程春玲 《计算机应用》 CSCD 北大核心 2018年第6期1675-1681,共7页
随机变分推理(SVI)已被成功应用于在包括主题模型在内的众多类型的模型。虽然它将推理问题映射到涉及随机梯度的优化问题,使其扩展到处理大规模数据集,但是SVI算法中随机梯度固有的噪声使其产生较大的方差,阻碍了快速收敛。为此,对SVI... 随机变分推理(SVI)已被成功应用于在包括主题模型在内的众多类型的模型。虽然它将推理问题映射到涉及随机梯度的优化问题,使其扩展到处理大规模数据集,但是SVI算法中随机梯度固有的噪声使其产生较大的方差,阻碍了快速收敛。为此,对SVI作出改进,提出一种方差减小的SVI(VR-SVI)算法。首先,采取滑动窗口的方法重新计算随机梯度中的噪声项,构建新的随机梯度,减少了噪声对随机梯度的影响;然后,对提出的算法可在SVI基础上使得随机梯度的方差减小进行证明;最后,讨论窗口大小对算法的影响,并分析算法的收敛性。实验结果表明,VRSVI算法既减小了随机梯度的方差,又节省了计算时间,可达到快速收敛的效果。 展开更多
关键词 随机变分推理 滑动窗口 随机梯度 方差减小 主题建模
在线阅读 下载PDF
利用改进深度信念网络的人脸表情识别 被引量:1
19
作者 山笑珂 张炳林 《计算机工程与设计》 北大核心 2021年第7期2052-2060,共9页
针对人脸表情识别过程中,误差逆向传播算法(back propagation,BP)对深度信念网络(deep belief network,DBN)微调时容易陷入极值点局部极小和收敛时间过长的问题,提出基于BP算法微调DBN的改进方法。对表情进行多特征提取并降维,利用所提... 针对人脸表情识别过程中,误差逆向传播算法(back propagation,BP)对深度信念网络(deep belief network,DBN)微调时容易陷入极值点局部极小和收敛时间过长的问题,提出基于BP算法微调DBN的改进方法。对表情进行多特征提取并降维,利用所提方法对降维后特征进行学习,采用共轭梯度算法解决BP算法和DBN结合存在的问题。实例仿真计算结果表明,所提方法精度高于支持向量机、基于Wasserstein生成式对抗网和基于图形信号处理的方法。所提方法比卷积类方法络训练时间更短,内存消耗更小。 展开更多
关键词 表情识别 深度信念网络 降维 半监督学习算法 共轭梯度算法
在线阅读 下载PDF
非负Tucker分解的随机方差缩减乘性更新算法
20
作者 白姗姗 史加荣 《南京理工大学学报》 EI CAS CSCD 北大核心 2021年第2期197-204,共8页
为了降低乘性迭代算法在求解非负Tucker分解时的计算复杂度,该文在乘性迭代的基础上,提出了一种随机方差缩减乘性更新方法。该方法先将待分解的非负张量n-模式矩阵化,再运用随机方差缩减乘性更新算法对矩阵进行非负分解,得到模式矩阵,... 为了降低乘性迭代算法在求解非负Tucker分解时的计算复杂度,该文在乘性迭代的基础上,提出了一种随机方差缩减乘性更新方法。该方法先将待分解的非负张量n-模式矩阵化,再运用随机方差缩减乘性更新算法对矩阵进行非负分解,得到模式矩阵,最后通过梯度下降思想来更新核心张量。对高维数据进行非负Tucker分解时,加快收敛速度且降低计算复杂度,提高了张量分解性能。在人工合成数据集及真实数据集上进行数值实验,结果验证了所提算法的可行性和有效性。 展开更多
关键词 非负Tucker分解 随机方差缩减梯度算法 乘性更新 梯度下降
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部