期刊文献+
共找到563篇文章
< 1 2 29 >
每页显示 20 50 100
A modified three–term conjugate gradient method with sufficient descent property 被引量:1
1
作者 Saman Babaie–Kafaki 《Applied Mathematics(A Journal of Chinese Universities)》 SCIE CSCD 2015年第3期263-272,共10页
A hybridization of the three–term conjugate gradient method proposed by Zhang et al. and the nonlinear conjugate gradient method proposed by Polak and Ribi`ere, and Polyak is suggested. Based on an eigenvalue analysi... A hybridization of the three–term conjugate gradient method proposed by Zhang et al. and the nonlinear conjugate gradient method proposed by Polak and Ribi`ere, and Polyak is suggested. Based on an eigenvalue analysis, it is shown that search directions of the proposed method satisfy the sufficient descent condition, independent of the line search and the objective function convexity. Global convergence of the method is established under an Armijo–type line search condition. Numerical experiments show practical efficiency of the proposed method. 展开更多
关键词 unconstrained optimization conjugate gradient method EIGENVALUE sufficient descent condition global convergence
在线阅读 下载PDF
A Modified PRP-HS Hybrid Conjugate Gradient Algorithm for Solving Unconstrained Optimization Problems
2
作者 LI Xiangli WANG Zhiling LI Binglan 《应用数学》 北大核心 2025年第2期553-564,共12页
In this paper,we propose a three-term conjugate gradient method for solving unconstrained optimization problems based on the Hestenes-Stiefel(HS)conjugate gradient method and Polak-Ribiere-Polyak(PRP)conjugate gradien... In this paper,we propose a three-term conjugate gradient method for solving unconstrained optimization problems based on the Hestenes-Stiefel(HS)conjugate gradient method and Polak-Ribiere-Polyak(PRP)conjugate gradient method.Under the condition of standard Wolfe line search,the proposed search direction is the descent direction.For general nonlinear functions,the method is globally convergent.Finally,numerical results show that the proposed method is efficient. 展开更多
关键词 Conjugate gradient method Unconstrained optimization Sufficient descent condition Global convergence
在线阅读 下载PDF
Designing fuzzy inference system based on improved gradient descent method
3
作者 Zhang Liquan Shao Cheng 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2006年第4期853-857,863,共6页
The distribution of sampling data influences completeness of rule base so that extrapolating missing rules is very difficult. Based on data mining, a self-learning method is developed for identifying fuzzy model and e... The distribution of sampling data influences completeness of rule base so that extrapolating missing rules is very difficult. Based on data mining, a self-learning method is developed for identifying fuzzy model and extrapolating missing rules, by means of confidence measure and the improved gradient descent method. The proposed approach can not only identify fuzzy model, update its parameters and determine optimal output fuzzy sets simultaneously, but also resolve the uncontrollable problem led by the regions that data do not cover. The simulation results show the effectiveness and accuracy of the proposed approach with the classical truck backer-upper control problem verifying. 展开更多
关键词 data mining fuzzy system gradient descent method missing rule.
在线阅读 下载PDF
A Descent Gradient Method and Its Global Convergence
4
作者 LIU Jin-kui 《Chinese Quarterly Journal of Mathematics》 CSCD 2014年第1期142-150,共9页
Y Liu and C Storey(1992)proposed the famous LS conjugate gradient method which has good numerical results.However,the LS method has very weak convergence under the Wolfe-type line search.In this paper,we give a new de... Y Liu and C Storey(1992)proposed the famous LS conjugate gradient method which has good numerical results.However,the LS method has very weak convergence under the Wolfe-type line search.In this paper,we give a new descent gradient method based on the LS method.It can guarantee the sufficient descent property at each iteration and the global convergence under the strong Wolfe line search.Finally,we also present extensive preliminary numerical experiments to show the efficiency of the proposed method by comparing with the famous PRP^+method. 展开更多
关键词 unconstrained optimization conjugate gradient method strong Wolfe line search sufficient descent property global convergence
在线阅读 下载PDF
A New Descent Nonlinear Conjugate Gradient Method for Unconstrained Optimization
5
作者 Hao Fan Zhibin Zhu Anwa Zhou 《Applied Mathematics》 2011年第9期1119-1123,共5页
In this paper, a new nonlinear conjugate gradient method is proposed for large-scale unconstrained optimization. The sufficient descent property holds without any line searches. We use some steplength technique which ... In this paper, a new nonlinear conjugate gradient method is proposed for large-scale unconstrained optimization. The sufficient descent property holds without any line searches. We use some steplength technique which ensures the Zoutendijk condition to be held, this method is proved to be globally convergent. Finally, we improve it, and do further analysis. 展开更多
关键词 Large Scale UNCONSTRAINED Optimization CONJUGATE gradient method SUFFICIENT descent Property Globally CONVERGENT
在线阅读 下载PDF
EFFICIENT GRADIENT DESCENT METHOD OFRBF NEURAL ENTWORKS WITHADAPTIVE LEARNING RATE
6
作者 Lin Jiayu Liu Ying(School of Electro. Sci. and Tech., National Univ. of Defence Technology, Changsha 410073) 《Journal of Electronics(China)》 2002年第3期255-258,共4页
A new algorithm to exploit the learning rates of gradient descent method is presented, based on the second-order Taylor expansion of the error energy function with respect to learning rate, at some values decided by &... A new algorithm to exploit the learning rates of gradient descent method is presented, based on the second-order Taylor expansion of the error energy function with respect to learning rate, at some values decided by "award-punish" strategy. Detailed deduction of the algorithm applied to RBF networks is given. Simulation studies show that this algorithm can increase the rate of convergence and improve the performance of the gradient descent method. 展开更多
关键词 gradient descent method Learning rate RBF neural networks
在线阅读 下载PDF
A New Nonlinear Conjugate Gradient Method for Unconstrained Optimization Problems 被引量:1
7
作者 LIU Jin-kui WANG Kai-rong +1 位作者 SONG Xiao-qian DU Xiang-lin 《Chinese Quarterly Journal of Mathematics》 CSCD 2010年第3期444-450,共7页
In this paper,an efficient conjugate gradient method is given to solve the general unconstrained optimization problems,which can guarantee the sufficient descent property and the global convergence with the strong Wol... In this paper,an efficient conjugate gradient method is given to solve the general unconstrained optimization problems,which can guarantee the sufficient descent property and the global convergence with the strong Wolfe line search conditions.Numerical results show that the new method is efficient and stationary by comparing with PRP+ method,so it can be widely used in scientific computation. 展开更多
关键词 unconstrained optimization conjugate gradient method strong Wolfe line search sufficient descent property global convergence
在线阅读 下载PDF
Three New Hybrid Conjugate Gradient Methods for Optimization
8
作者 Anwa Zhou Zhibin Zhu +1 位作者 Hao Fan Qian Qing 《Applied Mathematics》 2011年第3期303-308,共6页
In this paper, three new hybrid nonlinear conjugate gradient methods are presented, which produce suf?cient descent search direction at every iteration. This property is independent of any line search or the convexity... In this paper, three new hybrid nonlinear conjugate gradient methods are presented, which produce suf?cient descent search direction at every iteration. This property is independent of any line search or the convexity of the objective function used. Under suitable conditions, we prove that the proposed methods converge globally for general nonconvex functions. The numerical results show that all these three new hybrid methods are efficient for the given test problems. 展开更多
关键词 CONJUGATE gradient method descent Direction GLOBAL CONVERGENCE
在线阅读 下载PDF
Global Convergence of a Hybrid Conjugate Gradient Method
9
作者 吴雪莎 《Chinese Quarterly Journal of Mathematics》 2015年第3期408-415,共8页
Conjugate gradient method is one of successful methods for solving the unconstrained optimization problems. In this paper, absorbing the advantages of FR and CD methods, a hybrid conjugate gradient method is proposed.... Conjugate gradient method is one of successful methods for solving the unconstrained optimization problems. In this paper, absorbing the advantages of FR and CD methods, a hybrid conjugate gradient method is proposed. Under the general Wolfe linear searches, the proposed method can generate the sufficient descent direction at each iterate,and its global convergence property also can be established. Some preliminary numerical results show that the proposed method is effective and stable for the given test problems. 展开更多
关键词 CONJUGATE gradient method general Wolfe linear search SUFFICIENT descent condition global CONVERGENCE
在线阅读 下载PDF
Full waveform inversion with spectral conjugategradient method
10
作者 LIU Xiao LIU Mingchen +1 位作者 SUN Hui WANG Qianlong 《Global Geology》 2017年第1期40-45,共6页
Spectral conjugate gradient method is an algorithm obtained by combination of spectral gradient method and conjugate gradient method,which is characterized with global convergence and simplicity of spectral gradient m... Spectral conjugate gradient method is an algorithm obtained by combination of spectral gradient method and conjugate gradient method,which is characterized with global convergence and simplicity of spectral gradient method,and small storage of conjugate gradient method.Besides,the spectral conjugate gradient method was proved that the search direction at each iteration is a descent direction of objective function even without relying on any line search method.Spectral conjugate gradient method is applied to full waveform inversion for numerical tests on Marmousi model.The authors give a comparison on numerical results obtained by steepest descent method,conjugate gradient method and spectral conjugate gradient method,which shows that the spectral conjugate gradient method is superior to the other two methods. 展开更多
关键词 ful l waveform inversion spectral conjugate gradient method conjugate gradient method steepest descent method
在线阅读 下载PDF
基于全同态加密保护医疗隐私的逻辑回归方案 被引量:1
11
作者 李杰 马海英 曹东杰 《广西大学学报(自然科学版)》 北大核心 2025年第1期173-185,共13页
针对现有的医疗数据模型训练方案中存在隐私泄露和收敛速度慢的问题,提出基于全同态加密保护医疗隐私的逻辑回归方案。该方案首先利用Nesterov梯度下降法矫正逻辑回归算法中模型梯度的更新位置,加快其收敛速度,增大接近最优值的可能性,... 针对现有的医疗数据模型训练方案中存在隐私泄露和收敛速度慢的问题,提出基于全同态加密保护医疗隐私的逻辑回归方案。该方案首先利用Nesterov梯度下降法矫正逻辑回归算法中模型梯度的更新位置,加快其收敛速度,增大接近最优值的可能性,保证收敛精度;然后,利用全同态加密算法(CKKS)加密初始模型参数和医疗数据,使其在保护医疗数据隐私的前提下执行改进后的逻辑回归算法。为了提高模型训练中每轮迭代的效率,该方案通过减少2个向量的内积密文中的同态乘法计算次数,减小计算开销和噪声;利用极小极大近似多项式拟合Sigmoid函数,使医疗数据始终以密文的形式在不可信第三方服务器进行模型训练。通过合理的安全性假设,证明本方案在不可信的环境中进行模型训练时,能够确保医疗数据和模型参数的隐私安全。通过在真实数据集上测试本方案和相关方案的模型训练速度和精度,实验结果表明,本方案不仅具有较高的计算效率,而且提高了模型训练精度。 展开更多
关键词 全同态加密算法 梯度下降法 医疗隐私保护 逻辑回归
在线阅读 下载PDF
基于神经网络的病态线性方程组求解
12
作者 李鹏飞 张强 王辉 《计算机与数字工程》 2025年第3期632-636,691,共6页
病态线性方程组在其系数矩阵或者右端向量存在误差时,数值解存在不稳定甚至会失真等问题。针对此类问题,以病态线性方程组的系数矩阵为神经网络输入,方程组的解为神经网络权值,设计了SFNN(Single Layer Feedforward Neural Network)。该... 病态线性方程组在其系数矩阵或者右端向量存在误差时,数值解存在不稳定甚至会失真等问题。针对此类问题,以病态线性方程组的系数矩阵为神经网络输入,方程组的解为神经网络权值,设计了SFNN(Single Layer Feedforward Neural Network)。该SFNN算法,采用交叉熵代价函数作为神经网络优化的目标函数,梯度下降法作为神经网络学习算法,完成对病态线性方程组的求解。最后,分别以希尔伯特、范德蒙和帕斯卡矩阵为系数矩阵构建的病态线性方程组作为测试实例,对SFNN算法进行了验证。实验结果表明,该算法对严重病态线性方程组的求解是有效的。 展开更多
关键词 单层前馈神经网络 病态线性方程组 高斯白噪声 梯度下降法
在线阅读 下载PDF
基于GD-PSO的水电站地下洞室初始地应力场反演
13
作者 包腾飞 程健悦 +3 位作者 邢钰 周喜武 陈雨婷 赵向宇 《郑州大学学报(工学版)》 北大核心 2025年第5期130-136,共7页
针对现有的初始地应力场反演方法难以平衡收敛速度和非线性回归精度的问题,提出了一种联合梯度下降法(GD)和粒子群优化算法(PSO)的初始地应力场反演分析方法。首先,考虑影响初始地应力场的重力场及5种构造应力场的8种基础边界条件,利用... 针对现有的初始地应力场反演方法难以平衡收敛速度和非线性回归精度的问题,提出了一种联合梯度下降法(GD)和粒子群优化算法(PSO)的初始地应力场反演分析方法。首先,考虑影响初始地应力场的重力场及5种构造应力场的8种基础边界条件,利用有限元软件计算各边界条件下测点应力值;其次,以实测地应力值为目标值,利用GD-PSO算法进行回归分析,得到各边界条件的影响系数;最后,计算模型各点的回归地应力值,并作为初始地应力场输入三维有限元模型进行地应力平衡。实例分析表明:对比使用PSO算法的计算结果,使用GD-PSO算法求得的三次回归多项式精度最高,均方误差为0.579,回归结果与实测地应力值拟合较好,地应力平衡后除竖直方向应力值外,测点地应力值与实测值差值较小,围岩各向位移基本为零,最大位移仅有5.26 mm。 展开更多
关键词 大型抽水蓄能电站 地下洞室群 地应力反演 梯度下降法 粒子群优化算法
在线阅读 下载PDF
核电站水池焊接机器人自适应变刚度柔顺控制 被引量:2
14
作者 袁鹏达 回楠木 +1 位作者 韩晓微 吴宝举 《电子科技》 2025年第5期60-67,共8页
针对核电站水池焊接过程中的复杂工作环境和高精度焊接要求,文中采用梯度下降法逐步更新参数估计器的参数,实现参数的自适应调整,提高自适应控制的性能和鲁棒性。将模型参考自适应控制和变刚度阻抗控制相结合,提出了一种基于梯度下降法... 针对核电站水池焊接过程中的复杂工作环境和高精度焊接要求,文中采用梯度下降法逐步更新参数估计器的参数,实现参数的自适应调整,提高自适应控制的性能和鲁棒性。将模型参考自适应控制和变刚度阻抗控制相结合,提出了一种基于梯度下降法的模型参考自适应变刚度阻抗控制方法(Model Reference Adaptive Control-Variable Stiffness Impedance Control,MRAC-VSIC),用于实现自适应柔顺控制器中的刚度参数调整。利用Lyapunov稳定性理论对MRAC-VSIC方法进行闭环稳定性分析,证明了其闭环系统的稳定性。仿真结果表明,所提方法提高了机器人的动态响应能力和控制系统的鲁棒性,减少了稳态力误差的产生,提高了焊接过程中的控制精度和稳定性。 展开更多
关键词 核电水池 水下焊接机器人 阻抗控制 模型参考自适应 梯度下降法 参数估计器 末端执行器 力跟踪
在线阅读 下载PDF
具有多型避障方式的智能车辆路径规划 被引量:1
15
作者 胡子牛 陈鑫鹏 +3 位作者 杨泽宇 余子云 秦洪懋 高铭 《汽车工程》 北大核心 2025年第3期402-411,共10页
非结构化场景往往存在多种尺寸各异的障碍物,路径规划过程只考虑绕行的避障方式会导致车辆通行效率降低。针对该问题,本文在传统混合A^(*)算法中融合分层碰撞检测策略,提出了一种具有多型避障方式的智能车辆路径规划方法。首先,以车辆... 非结构化场景往往存在多种尺寸各异的障碍物,路径规划过程只考虑绕行的避障方式会导致车辆通行效率降低。针对该问题,本文在传统混合A^(*)算法中融合分层碰撞检测策略,提出了一种具有多型避障方式的智能车辆路径规划方法。首先,以车辆底盘高度为基准构造上下双层栅格地图,并利用车身轮廓和四轮轮廓设计分层碰撞检测策略;然后,通过合理设计的启发函数与代价函数计算方式,使得混合A^(*)算法能够在多障碍物场景中高效搜索路径;最后,利用梯度下降法对路径进行平滑优化。仿真与实车试验结果表明,所提出算法可有效提高路径搜索效率并改善路径平滑性,且规划路径兼顾了跨障与绕障方式,使得车辆在多障碍物场景下具备更良好的通过性。 展开更多
关键词 路径规划 混合A*算法 分层碰撞检测策略 梯度下降法
在线阅读 下载PDF
基于改进粒子群的智能汽车最优路径规划方法研究
16
作者 夏佳 郑晏群 +1 位作者 谢秉磊 张鹍鹏 《机械设计与制造》 北大核心 2025年第2期264-268,共5页
为了提高复杂环境下智能车辆路径规划的实时性和安全性,提出了一种结合改进强化学习算法和改进粒子群优化算法的智能车辆路径规划方法。采用小批量梯度下降法优化强化学习算法的衰减参数和学习因子,提高学习效率。通过改进的强化学习算... 为了提高复杂环境下智能车辆路径规划的实时性和安全性,提出了一种结合改进强化学习算法和改进粒子群优化算法的智能车辆路径规划方法。采用小批量梯度下降法优化强化学习算法的衰减参数和学习因子,提高学习效率。通过改进的强化学习算法训练改进的粒子群优化算法,并根据评价指标选择最优路径。通过与传统路径规划方法进行仿真对比,验证了该方法的优越性。结果表明,与传统的路径规划方法相比,随着障碍物比例的增加,这里方法规划的路径最优,路径规划的综合成本最低,为复杂环境下智能车辆的路径规划提供了保障。 展开更多
关键词 智能汽车 路径规划方法 梯度下降法 强化学习算法 粒子群算法
在线阅读 下载PDF
基于区间Ⅱ型FNN的MSWI过程炉膛温度控制 被引量:3
17
作者 汤健 田昊 +1 位作者 夏恒 乔俊飞 《北京工业大学学报》 北大核心 2025年第2期157-172,共16页
针对城市固废焚烧(municipal solid waste incineration,MSWI)过程的炉膛温度难以实现有效控制的问题,提出基于区间Ⅱ型模糊神经网络(interval type-Ⅱfuzzy neural network,IT2FNN)的炉膛温度控制方法。首先,进行炉膛温度控制特性分析... 针对城市固废焚烧(municipal solid waste incineration,MSWI)过程的炉膛温度难以实现有效控制的问题,提出基于区间Ⅱ型模糊神经网络(interval type-Ⅱfuzzy neural network,IT2FNN)的炉膛温度控制方法。首先,进行炉膛温度控制特性分析以确定对其产生影响的关键操作变量;然后,根据上述操作变量基于线性回归决策树(linear regression decision tree,LRDT)建立多入单出(multiple-input single-output,MISO)炉膛温度模型;最后,构建具有自适应参数学习的IT2FNN控制器,并证明其稳定性。在MSWI过程数据集上构建模型并进行控制,实验结果验证了所提方法的有效性。 展开更多
关键词 城市固废焚烧(municipal solid waste incineration MSWI) 炉膛温度控制 线性回归决策树(linear regression decision tree LRDT) 区间Ⅱ型模糊神经网络(interval type-Ⅱfuzzy neural network IT2FNN) 梯度下降法 李雅普诺夫稳定性分析
在线阅读 下载PDF
改进自适应指数平滑法及其在基坑变形预测中的应用
18
作者 燕俊松 石泉彬 刘如兵 《岩土工程技术》 2025年第5期648-655,共8页
对基坑开挖变形作出可靠预测有助于提高施工安全性。对现有自适应指数平滑法进行了改进,摒弃采用遍历法求解最优平滑系数α的传统思路,以均方误差(MSE)作为损失函数,推导了一次、二次和三次指数平滑模型的MSE对α的梯度表达式,进而采用... 对基坑开挖变形作出可靠预测有助于提高施工安全性。对现有自适应指数平滑法进行了改进,摒弃采用遍历法求解最优平滑系数α的传统思路,以均方误差(MSE)作为损失函数,推导了一次、二次和三次指数平滑模型的MSE对α的梯度表达式,进而采用梯度下降法求解最优α值。与原方法相比,改进方法在最优平滑模型选择及平滑系数优化方面展现出与原方法相当的性能,且在适当的超参数(尤其是学习率)设置情况下,寻优效率显著提升。在此基础上,基于1900组基坑变形序列的应用,较为系统地评估了改进自适应指数平滑法在基坑变形预测中的适用性和可靠性,并探讨了预测步长和训练序列长度对预测性能的影响,据此提出了基坑变形预测优化方案。 展开更多
关键词 深基坑 变形预测 改进自适应指数平滑法 梯度下降法 应用评价
在线阅读 下载PDF
分布式波形分集阵雷达目标检测与参数估计一体化
19
作者 朱嘉运 马润龙 +3 位作者 李坤坤 魏法 张翔 兰岚 《太赫兹科学与电子信息学报》 2025年第8期772-783,792,共13页
针对传统单站雷达微弱目标探测难问题,提出一种基于分布式波形分集阵雷达的目标检测和参数估计一体化算法。分布式波形分集阵雷达系统由频率分集阵(FDA)-多输入多输出(MIMO)雷达和阵元脉冲编码(EPC)-MIMO雷达构成。在白噪声背景下,对每... 针对传统单站雷达微弱目标探测难问题,提出一种基于分布式波形分集阵雷达的目标检测和参数估计一体化算法。分布式波形分集阵雷达系统由频率分集阵(FDA)-多输入多输出(MIMO)雷达和阵元脉冲编码(EPC)-MIMO雷达构成。在白噪声背景下,对每个局部雷达站构建二元假设问题,其中,目标角度和距离信息未知。基于上述模型,在广义似然比检测(GLRT)准则下设计自适应检测器。通过坐标下降(CD)法和梯度投影算法(GPM)求解目标角度和距离信息的估计值并得到局部检测统计量;随后在融合中心通过计算多组局部检测统计量的对数和,构建用于最终检测判断的全局检测统计量。仿真实验验证,相比于单站波形分集阵雷达,分布式波形分集阵雷达提升了目标检测概率;相比于分布式相控阵雷达,分布式波形分集阵雷达显著提升了目标检测概率和参数估计性能。 展开更多
关键词 分布式波形分集阵雷达 广义似然比检测(GLRT) 角度与距离估计 坐标下降法 梯度投影法(GPM)
在线阅读 下载PDF
批量梯度下降与随机梯度下降在逻辑斯谛回归模型训练中的对比分析
20
作者 孙娅楠 王艳萍 李杰 《通化师范学院学报》 2025年第4期14-19,共6页
基于机器学习中的逻辑斯谛回归(Logistic Regression)模型,分别使用批量梯度下降法(BGD)与随机梯度下降法(SGD)进行实例分析,根据马患疝气病的特征,对其是否进行外科手术判别分析.最后给出了两种优化算法在机器学习模型训练中的适用情... 基于机器学习中的逻辑斯谛回归(Logistic Regression)模型,分别使用批量梯度下降法(BGD)与随机梯度下降法(SGD)进行实例分析,根据马患疝气病的特征,对其是否进行外科手术判别分析.最后给出了两种优化算法在机器学习模型训练中的适用情况及其优缺点. 展开更多
关键词 逻辑斯谛回归模型 梯度下降法 机器学习
在线阅读 下载PDF
上一页 1 2 29 下一页 到第
使用帮助 返回顶部