期刊文献+
共找到8篇文章
< 1 >
每页显示 20 50 100
基于SVRG全局优化的机器人手眼标定 被引量:1
1
作者 王一凡 黄涛 张小明 《机床与液压》 北大核心 2025年第9期1-7,共7页
聚焦于机器人加工视觉导引中的机器人手眼关系X的精确求解。奇异值分解方法求解时易受到外界环境的干扰,传统分步标定方式将手眼关系X中的旋转矩阵和平移分量分开估计,容易导致标定误差逐渐积累。为此,提出一种基于SVRG优化方法的标定... 聚焦于机器人加工视觉导引中的机器人手眼关系X的精确求解。奇异值分解方法求解时易受到外界环境的干扰,传统分步标定方式将手眼关系X中的旋转矩阵和平移分量分开估计,容易导致标定误差逐渐积累。为此,提出一种基于SVRG优化方法的标定方法。采用Kronecker积和奇异值分解来求解标定方程,得到初步解,并随后通过SVRG迭代算法对目标函数进行进一步优化,以提升解的精确性。通过不同噪声水平以及不同标定数据数量的仿真标定试验和机器人手眼标定平台数据集进行了算法验证与分析,并与4种经典求解方法进行比较。研究结果表明,SVRG方法有效控制了迭代过程中噪声方差的收敛,其几何误差的平均值为0.564,标准差为0.271,相较其他4种经典求解方法在准确性和效率方面均具有优势,有助于提高工业机器人加工测量过程中的精度以及可靠性。 展开更多
关键词 机器人加工 全局优化 手眼标定 svrg优化
在线阅读 下载PDF
分布式随机方差消减梯度下降算法topkSVRG 被引量:5
2
作者 王建飞 亢良伊 +1 位作者 刘杰 叶丹 《计算机科学与探索》 CSCD 北大核心 2018年第7期1047-1054,共8页
机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(... 机器学习问题通常会转换成一个目标函数进行求解,优化算法是求解目标函数中参数的重要工具。随机梯度下降(stochastic gradient descent,SGD)是目前应用最广的算法,因其易受噪声干扰只能达到次线性收敛率,而改进后的随机方差消减梯度法(stochastic variance reduction gradient,SVRG)则可以达到线性的收敛率。SVRG是一种串行单机版算法,为了应对大规模数据集分布式训练问题,设计一种以SVRG算法思想为基础的分布式SVRG的实现算法topk SVRG。改进在于:主节点维护一个全局模型,从节点基于本地数据进行局部模型更新。每轮迭代时,选择与当前全局模型距离最小的k个局部模型进行平均来更新全局模型,参数k调大可以提高收敛速度,调小k可以保证收敛。理论分析了算法的线性收敛性,基于Spark进行算法实现,通过与Mini-Batch SGD、CoCoA、Splash及相关算法的实验比较,topkSVRG可以在高精度要求下更快地收敛。 展开更多
关键词 机器学习 优化 随机梯度下降(SGD) 随机方差消减梯度法(svrg) 分布式计算
在线阅读 下载PDF
N-SVRG:Stochastic Variance Reduction Gradient with Noise Reduction Ability for Small Batch Samples
3
作者 Haijie Pan Lirong Zheng 《Computer Modeling in Engineering & Sciences》 SCIE EI 2022年第4期493-512,共20页
The machine learning model converges slowly and has unstable training since large variance by random using a sample estimate gradient in SGD.To this end,we propose a noise reduction method for Stochastic Variance Redu... The machine learning model converges slowly and has unstable training since large variance by random using a sample estimate gradient in SGD.To this end,we propose a noise reduction method for Stochastic Variance Reduction gradient(SVRG),called N-SVRG,which uses small batches samples instead of all samples for the average gradient calculation,while performing an incremental update of the average gradient.In each round of iteration,a small batch of samples is randomly selected for the average gradient calculation,while the average gradient is updated by rounding of the past model gradients during internal iterations.By suitably reducing the batch size B,the memory storage as well as the number of iterations can be reduced.The experiments are compared with the state-of-the-art Mini-Batch SGD,AdaGrad,RMSProp,SVRG and SCSG,and it is demonstrated that N-SVRG outperforms SVRG and SASG,and is on par with SCSG.Finally,by exploring the relationship between the small values of different parameters n.B and k and the effectiveness of the algorithm,we prove that ourN-SVRG algorithm has some stability and can achieve sufficient accuracy even in the case of small batch size.The advantages and disadvantages of various methods are experimentally compared,and the stability of N-SVRG is explored by parameter settings. 展开更多
关键词 Machine learning SGD svrg memory storage
在线阅读 下载PDF
融合M2Net的子空间优化逆散射成像方法
4
作者 朱艳萍 张慕林 +2 位作者 陈金立 陈家楠 陈继鑫 《电子测量技术》 北大核心 2025年第21期189-198,共10页
针对提升现有逆散射成像算法精度的需求和抗噪声性能具有局限性的问题,本文提出了一种基于随机方差缩减的子空间优化法与M2Net深度网络融合的逆散射成像方法。该方法在优化的SOM框架下引入随机方差缩减梯度法,通过使用两层循环结构,在... 针对提升现有逆散射成像算法精度的需求和抗噪声性能具有局限性的问题,本文提出了一种基于随机方差缩减的子空间优化法与M2Net深度网络融合的逆散射成像方法。该方法在优化的SOM框架下引入随机方差缩减梯度法,通过使用两层循环结构,在每次迭代中随机抽取少量样本进行更新,以修正项来减少方差并提升计算效率。在此基础上,构建了包含多尺度层的M型残差块的U形嵌套模型M2Net网络结构,并将初始重构结果作为输入数据用于M2Net的训练,实现对散射体结构的进一步高精度重构。该方法与传统方法相比,在结构相似性方面提升10%~30%,在均方根误差方面降低5%~15%,表明所提出方法在抗噪性能方面表现优异,并能够实现高精度的图像重建。 展开更多
关键词 电磁逆散射 子空间优化法 随机方差缩减梯度法 M2Net
原文传递
批量减数更新方差缩减梯度下降算法BSUG 被引量:6
5
作者 宋杰 朱勇 许冰 《计算机工程与应用》 CSCD 北大核心 2020年第22期117-123,共7页
机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达... 机器学习问题通常会转换成求解一个目标函数问题。继随机梯度下降(Stochastic Gradient Descent,SGD)之后,随机方差缩减梯度法(Stochastic Variance Reduction Gradient,SVRG)成为如今优化目标函数参数的主流算法,它由于不受方差影响达到线性收敛而被人们广泛研究。它的提出导致陆续出现如SAGA(Stochastic Average Gradient Average)和SCSG(Stochastically Controlled Stochastic Gradient)等新型方差缩减算法,它们有着过量消耗内存、迭代缓慢等问题。为了实现小成本存储以及快速迭代的目的,设计了一种以SVRG为基础的新型变异方差缩减算法BSUG(Batch Subtraction Update Gradient)。改进在于:使用小批量样本代替全部样本进行平均梯度计算,同时对平均梯度进行减数更新。每轮迭代中,随机抽取一批小样本进行平均梯度计算,同时在内部迭代时通过对过去模型梯度的舍去来达到更新平均梯度的目的。通过合适地降低批大小B,可以减少内存存储以及迭代次数。理论分析算法的收敛性,并基于Python进行算法实现,通过与Mini-Batch SGD、AdaGrad、RMSProp、SVRG和SCSG等算法进行比较证明了BSUG算法的有效性,并且通过对超参数进行探究证明了算法的稳定性。 展开更多
关键词 机器学习 优化 小批量 减数更新 随机方差缩减梯度法(svrg)
在线阅读 下载PDF
基于最优间隔的AdaBoost_(v)算法的非平衡数据分类 被引量:4
6
作者 鲁淑霞 张振莲 《计算机科学》 CSCD 北大核心 2021年第11期184-191,共8页
为了解决非平衡数据分类问题,提出了一种基于最优间隔的AdaBoost v算法。该算法采用改进的SVM作为基分类器,在SVM的优化模型中引入间隔均值项,并根据数据非平衡比对间隔均值项和损失函数项进行加权;采用带有方差减小的随机梯度方法(Stoc... 为了解决非平衡数据分类问题,提出了一种基于最优间隔的AdaBoost v算法。该算法采用改进的SVM作为基分类器,在SVM的优化模型中引入间隔均值项,并根据数据非平衡比对间隔均值项和损失函数项进行加权;采用带有方差减小的随机梯度方法(Stochastic Variance Reduced Gradient,SVRG)对优化模型进行求解,以加快收敛速度。所提基于最优间隔的AdaBoost v算法在样本权重更新公式中引入了一种新的自适应代价敏感函数,赋予少数类样本、误分类的少数类样本以及靠近决策边界的少数类样本更高的代价值;另外,通过结合新的权重公式以及引入给定精度参数v下的最优间隔的估计值,推导出新的基分类器权重策略,进一步提高了算法的分类精度。对比实验表明,在线性和非线性情况下,所提基于最优间隔的AdaBoost v算法在非平衡数据集上的分类精度优于其他算法,且能获得更大的最小间隔。 展开更多
关键词 非平衡数据 svrg AdaBoost_(v) 最优间隔 自适应代价敏感函数
在线阅读 下载PDF
代价敏感惩罚AdaBoost算法的非平衡数据分类 被引量:20
7
作者 鲁淑霞 张振莲 翟俊海 《南京航空航天大学学报》 CAS CSCD 北大核心 2023年第2期339-346,共8页
针对非平衡数据分类问题,提出了一种基于代价敏感的惩罚AdaBoost算法。在惩罚Adaboost算法中,引入一种新的自适应代价敏感函数,赋予少数类样本及分错的少数类样本更高的代价值,并通过引入惩罚机制增大了样本的平均间隔。选择加权支持向... 针对非平衡数据分类问题,提出了一种基于代价敏感的惩罚AdaBoost算法。在惩罚Adaboost算法中,引入一种新的自适应代价敏感函数,赋予少数类样本及分错的少数类样本更高的代价值,并通过引入惩罚机制增大了样本的平均间隔。选择加权支持向量机(Support vector machine,SVM)优化模型作为基分类器,采用带有方差减小的随机梯度下降方法(Stochastic variance reduced gradient,SVRG)对优化模型进行求解。对比实验表明,本文提出的算法不但在几何均值(G-mean)和ROC曲线下的面积(Area under ROC curve,AUC)上明显优于其他算法,而且获得了较大的平均间隔,显示了本文算法在处理非平衡数据分类问题上的有效性。 展开更多
关键词 非平衡数据 惩罚AdaBoost 自适应代价敏感函数 平均间隔 随机梯度下降
在线阅读 下载PDF
求解SVM的稀疏随机方差缩减梯度法 被引量:4
8
作者 周晓君 于腾腾 《计算机应用研究》 CSCD 北大核心 2020年第S02期95-97,101,共4页
针对随机梯度下降(SGD)算法解支持向量机(SVM)中存在步长的选取耗时且收敛速度较慢等问题,提出使用改进的Barzilai-Borwein(BB)法自动计算小批量随机方差减小的梯度法(MSVRG)的步长,来解决光滑化合页损失函数的支持向量机问题。针对高... 针对随机梯度下降(SGD)算法解支持向量机(SVM)中存在步长的选取耗时且收敛速度较慢等问题,提出使用改进的Barzilai-Borwein(BB)法自动计算小批量随机方差减小的梯度法(MSVRG)的步长,来解决光滑化合页损失函数的支持向量机问题。针对高维稀疏数据下,SVRG在外循环的迭代中因全梯度的计算而变得稠密,使用稀疏近似梯度将MSVRG-BB算法拓展得到新的算法:MSSVRG-BB。数值实验表明,MSSVRG-BB算法不仅对初始参数的选取并不敏感,且与先进的小批量算法相比,对于求解大规模高维稀疏数据的线性SVM问题,稀疏近似梯度的使用使运算成本减小进而能够更快地达到收敛上界。 展开更多
关键词 支持向量机 稀疏性 Barzilai-Borwein 小批量 随机方差减小梯度法(svrg)
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部