期刊文献+
共找到18篇文章
< 1 >
每页显示 20 50 100
Decentralized Federated Learning Algorithm Under Adversary Eavesdropping
1
作者 Lei Xu Danya Xu +3 位作者 Xinlei Yi Chao Deng Tianyou Chai Tao Yang 《IEEE/CAA Journal of Automatica Sinica》 2025年第2期448-456,共9页
In this paper, we study the decentralized federated learning problem, which involves the collaborative training of a global model among multiple devices while ensuring data privacy.In classical federated learning, the... In this paper, we study the decentralized federated learning problem, which involves the collaborative training of a global model among multiple devices while ensuring data privacy.In classical federated learning, the communication channel between the devices poses a potential risk of compromising private information. To reduce the risk of adversary eavesdropping in the communication channel, we propose TRADE(transmit difference weight) concept. This concept replaces the decentralized federated learning algorithm's transmitted weight parameters with differential weight parameters, enhancing the privacy data against eavesdropping. Subsequently, by integrating the TRADE concept with the primal-dual stochastic gradient descent(SGD)algorithm, we propose a decentralized TRADE primal-dual SGD algorithm. We demonstrate that our proposed algorithm's convergence properties are the same as those of the primal-dual SGD algorithm while providing enhanced privacy protection. We validate the algorithm's performance on fault diagnosis task using the Case Western Reserve University dataset, and image classification tasks using the CIFAR-10 and CIFAR-100 datasets,revealing model accuracy comparable to centralized federated learning. Additionally, the experiments confirm the algorithm's privacy protection capability. 展开更多
关键词 Adversary eavesdropping decentralized federated learning privacy protection stochastic gradient descent
在线阅读 下载PDF
Stochastic Gradient Compression for Federated Learning over Wireless Network
2
作者 Lin Xiaohan Liu Yuan +2 位作者 Chen Fangjiong Huang Yang Ge Xiaohu 《China Communications》 SCIE CSCD 2024年第4期230-247,共18页
As a mature distributed machine learning paradigm,federated learning enables wireless edge devices to collaboratively train a shared AI-model by stochastic gradient descent(SGD).However,devices need to upload high-dim... As a mature distributed machine learning paradigm,federated learning enables wireless edge devices to collaboratively train a shared AI-model by stochastic gradient descent(SGD).However,devices need to upload high-dimensional stochastic gradients to edge server in training,which cause severe communication bottleneck.To address this problem,we compress the communication by sparsifying and quantizing the stochastic gradients of edge devices.We first derive a closed form of the communication compression in terms of sparsification and quantization factors.Then,the convergence rate of this communicationcompressed system is analyzed and several insights are obtained.Finally,we formulate and deal with the quantization resource allocation problem for the goal of minimizing the convergence upper bound,under the constraint of multiple-access channel capacity.Simulations show that the proposed scheme outperforms the benchmarks. 展开更多
关键词 federated learning gradient compression quantization resource allocation stochastic gradient descent(SGD)
在线阅读 下载PDF
FL-EASGD:Federated Learning Privacy Security Method Based on Homomorphic Encryption 被引量:1
3
作者 Hao Sun Xiubo Chen Kaiguo Yuan 《Computers, Materials & Continua》 SCIE EI 2024年第5期2361-2373,共13页
Federated learning ensures data privacy and security by sharing models among multiple computing nodes instead of plaintext data.However,there is still a potential risk of privacy leakage,for example,attackers can obta... Federated learning ensures data privacy and security by sharing models among multiple computing nodes instead of plaintext data.However,there is still a potential risk of privacy leakage,for example,attackers can obtain the original data through model inference attacks.Therefore,safeguarding the privacy of model parameters becomes crucial.One proposed solution involves incorporating homomorphic encryption algorithms into the federated learning process.However,the existing federated learning privacy protection scheme based on homomorphic encryption will greatly reduce the efficiency and robustness when there are performance differences between parties or abnormal nodes.To solve the above problems,this paper proposes a privacy protection scheme named Federated Learning-Elastic Averaging Stochastic Gradient Descent(FL-EASGD)based on a fully homomorphic encryption algorithm.First,this paper introduces the homomorphic encryption algorithm into the FL-EASGD scheme to preventmodel plaintext leakage and realize privacy security in the process ofmodel aggregation.Second,this paper designs a robust model aggregation algorithm by adding time variables and constraint coefficients,which ensures the accuracy of model prediction while solving performance differences such as computation speed and node anomalies such as downtime of each participant.In addition,the scheme in this paper preserves the independent exploration of the local model by the nodes of each party,making the model more applicable to the local data distribution.Finally,experimental analysis shows that when there are abnormalities in the participants,the efficiency and accuracy of the whole protocol are not significantly affected. 展开更多
关键词 federated learning homomorphic encryption privacy security stochastic gradient descent
在线阅读 下载PDF
PEPFL:A framework for a practical and efficient privacy-preserving federated learning
4
作者 Yange Chen Baocang Wang +3 位作者 Hang Jiang Pu Duan Yuan Ping Zhiyong Hong 《Digital Communications and Networks》 SCIE CSCD 2024年第2期355-368,共14页
As an emerging joint learning model,federated learning is a promising way to combine model parameters of different users for training and inference without collecting users’original data.However,a practical and effic... As an emerging joint learning model,federated learning is a promising way to combine model parameters of different users for training and inference without collecting users’original data.However,a practical and efficient solution has not been established in previous work due to the absence of efficient matrix computation and cryptography schemes in the privacy-preserving federated learning model,especially in partially homomorphic cryptosystems.In this paper,we propose a Practical and Efficient Privacy-preserving Federated Learning(PEPFL)framework.First,we present a lifted distributed ElGamal cryptosystem for federated learning,which can solve the multi-key problem in federated learning.Secondly,we develop a Practical Partially Single Instruction Multiple Data(PSIMD)parallelism scheme that can encode a plaintext matrix into single plaintext for encryption,improving the encryption efficiency and reducing the communication cost in partially homomorphic cryptosystem.In addition,based on the Convolutional Neural Network(CNN)and the designed cryptosystem,a novel privacy-preserving federated learning framework is designed by using Momentum Gradient Descent(MGD).Finally,we evaluate the security and performance of PEPFL.The experiment results demonstrate that the scheme is practicable,effective,and secure with low communication and computation costs. 展开更多
关键词 federated learning Partially single instruction multiple data Momentum gradient descent ELGAMAL Multi-key Homomorphic encryption
在线阅读 下载PDF
Research on Federated Learning Data Sharing Scheme Based on Differential Privacy
5
作者 Lihong Guo 《Computers, Materials & Continua》 SCIE EI 2023年第3期5069-5085,共17页
To realize data sharing,and to fully use the data value,breaking the data island between institutions to realize data collaboration has become a new sharing mode.This paper proposed a distributed data security sharing... To realize data sharing,and to fully use the data value,breaking the data island between institutions to realize data collaboration has become a new sharing mode.This paper proposed a distributed data security sharing scheme based on C/S communication mode,and constructed a federated learning architecture that uses differential privacy technology to protect training parameters.Clients do not need to share local data,and they only need to upload the trained model parameters to achieve data sharing.In the process of training,a distributed parameter update mechanism is introduced.The server is mainly responsible for issuing training commands and parameters,and aggregating the local model parameters uploaded by the clients.The client mainly uses the stochastic gradient descent algorithm for gradient trimming,updates,and transmits the trained model parameters back to the server after differential processing.To test the performance of the scheme,in the application scenario where many medical institutions jointly train the disease detection system,the model is tested from multiple perspectives by taking medical data as an example.From the testing results,we can know that for this specific test dataset,when the parameters are properly configured,the lowest prediction accuracy rate is 90.261%and the highest accuracy rate is up to 94.352.It shows that the performance of the model is good.The results also show that this scheme realizes data sharing while protecting data privacy,completes accurate prediction of diseases,and has a good effect. 展开更多
关键词 federated learning C/S mode differential privacy gradient descent prediction accuracy
在线阅读 下载PDF
联邦学习的社群化制造韧性能力预测建模
6
作者 张富强 王浩杰 +1 位作者 惠记庄 丁凯 《西安交通大学学报》 北大核心 2025年第8期11-19,共9页
针对社群化制造资源分散化布局的特点,以及传统集中式建模面临的数据隐私与信息孤岛等问题,提出了一种基于联邦学习的韧性能力预测框架,从多角度分析不同因素对产品生产加工工时的影响。首先,考虑不同工序中断情况,以订单交付周期为目... 针对社群化制造资源分散化布局的特点,以及传统集中式建模面临的数据隐私与信息孤岛等问题,提出了一种基于联邦学习的韧性能力预测框架,从多角度分析不同因素对产品生产加工工时的影响。首先,考虑不同工序中断情况,以订单交付周期为目标函数,搭建了工时扰动模型计算损失时间,进而基于分布式学习范式,搭建了联邦学习网络模型;其次,设计了联邦小批量梯度下降(FedMBGD)算法,明确算法流程并进行本地训练;最后,结合工时扰动模型和算法,对社群化制造的韧性能力进行预测,通过与其他算法的对比,验证了所提算法的可行性与有效性。研究结果表明:所提出的算法能够显著提升收敛性与寻优能力,可将预测精确度提高至90%以上,并且在不共享原始数据的前提下,实现了社群化制造韧性的动态精准预测,解决了数据隐私与协同建模之间的矛盾。该研究为社群化制造模式下韧性能力预测提供了理论参考,为隐私数据的算法训练、参数上传及信息共享提供了一定的指导意义。 展开更多
关键词 社群化制造 工时扰动 联邦小批量梯度下降算法 韧性能力预测
在线阅读 下载PDF
不可靠通信下的联邦抗干扰模型优化方案
7
作者 李中捷 郭海榕 邱凡 《中南民族大学学报(自然科学版)》 2025年第6期826-832,共7页
针对蜂窝车联网(Cellular-Vehicle to Everything,C-V2X)通信场景下无线信道受到干扰导致通信过程中可能存在信息丢失的情况,通过对联邦分布式随机梯度下降(Federated Learning-Distributed Stochastic Gradient Descent,FL-DSGD)进行... 针对蜂窝车联网(Cellular-Vehicle to Everything,C-V2X)通信场景下无线信道受到干扰导致通信过程中可能存在信息丢失的情况,通过对联邦分布式随机梯度下降(Federated Learning-Distributed Stochastic Gradient Descent,FL-DSGD)进行抗干扰模型更新机制的优化以减少上述通信链路不可靠情况的影响.该方案首先建立车辆与基站的通信链路及传输模型参数;然后在通信链路不可靠导致模型参数在传输过程中部分缺失的情况下,根据链路可靠性混合权重矩阵,利用车辆上存储的本地模型以及基站存储的全局模型参与当前轮次联邦学习的模型更新,以填充丢失的模型参数.仿真结果表明:在通信链路不可靠的情况下,FL-DSGD方案达到90%的训练准确率以及85%的测试准确率所需的通信轮次约为分布式基线方案所需通信轮次的50%. 展开更多
关键词 联邦学习 车联网 随机梯度下降
在线阅读 下载PDF
基于数据压缩和梯度追踪的方差缩减的联邦优化算法 被引量:1
8
作者 贾泽慧 李登辉 +1 位作者 刘治宇 黄洁茹 《南京理工大学学报》 北大核心 2025年第2期155-166,共12页
为克服联邦学习中的计算成本、通信成本以及数据异质等挑战,该文提出了一种基于数据压缩和梯度追踪的方差缩减的联邦优化算法(FedCOMGATE-VR)。与传统依赖简单随机梯度估计的联邦学习算法不同,FedCOMGATE-VR通过引入方差缩减的随机梯度... 为克服联邦学习中的计算成本、通信成本以及数据异质等挑战,该文提出了一种基于数据压缩和梯度追踪的方差缩减的联邦优化算法(FedCOMGATE-VR)。与传统依赖简单随机梯度估计的联邦学习算法不同,FedCOMGATE-VR通过引入方差缩减的随机梯度估计,能够使用更大的步长,从而加速算法收敛;同时,采用数据压缩技术处理上传的模型参数,减少了通信成本;此外,结合梯度追踪技术,准确追踪局部梯度与全局梯度之间的偏差,有效应对数据异质的联邦学习场景。理论方面,该文在非凸情形下给出了算法的次线性收敛率,并在强凸情形下给出了算法的线性收敛率。此外,该文将FedCOMGATE-VR用于对Fashion-MNIST和CIFAR-10数据集进行分类训练,并与已有算法在不同参数设置(步长、本地更新次数等)下进行对比实验。实验结果表明,FedCOMGATE-VR能够适应复杂的异质数据环境,且在达到相同预设训练准确率时,该算法较FedCOMGATE通信次数降低约20%,总迭代次数降低约66%,有效降低了通信和计算成本。 展开更多
关键词 联邦学习 随机梯度下降 方差缩减 数据异质
在线阅读 下载PDF
基于差分隐私的联邦学习研究综述
9
作者 张淑芬 汤本建 +1 位作者 田子坤 秦肖阳 《计算机应用》 北大核心 2025年第10期3221-3230,共10页
随着人工智能的快速发展,用户隐私泄露风险日益严重。差分隐私是一种关键的隐私保护技术,通过在数据中引入噪声防止个人信息泄露,而联邦学习(FL)则允许在不交换数据的情况下共同训练模型,保护数据的安全性。近年来,差分隐私技术与FL的... 随着人工智能的快速发展,用户隐私泄露风险日益严重。差分隐私是一种关键的隐私保护技术,通过在数据中引入噪声防止个人信息泄露,而联邦学习(FL)则允许在不交换数据的情况下共同训练模型,保护数据的安全性。近年来,差分隐私技术与FL的结合使用可以充分发挥它们各自的优势:差分隐私确保数据使用过程中的隐私保护,而FL则通过分布式训练提高模型的泛化能力和效率。针对FL的隐私安全问题,首先,系统性地总结和比较基于差分隐私的FL的最新研究进展,包括不同的差分隐私机制、FL算法和应用场景;其次,重点讨论差分隐私在FL中的应用方式,包括数据聚合、梯度下降和模型训练等方面,并分析各种技术的优缺点;最后,详细总结该领域当前存在的挑战和发展方向。 展开更多
关键词 联邦学习 差分隐私 数据聚合 梯度下降 模型训练
在线阅读 下载PDF
Optimizing Data Distributions Based on Jensen-Shannon Divergence for Federated Learning
10
作者 Zhiyao Hu Dongsheng Li +2 位作者 Ke Yang Ying Xu Baoyun Peng 《Tsinghua Science and Technology》 2025年第2期670-681,共12页
In current federated learning frameworks,a central server randomly selects a small number of clients to train local models at the beginning of each global iteration.Since clients’local data are non-dependent and iden... In current federated learning frameworks,a central server randomly selects a small number of clients to train local models at the beginning of each global iteration.Since clients’local data are non-dependent and identically distributed,partial local models are not consistent with the global model.Existing studies employ model cleaning methods to find inconsistent local models.Model cleaning methods measure the cosine similarity between local models and the global model.The inconsistent local model is cleaned out and will not be aggregated for the next global model.However,model cleaning methods incur negative effects such as large computation overheads and limited updates.In this paper,we propose a data distribution optimization method,called federated distribution optimization(FedDO),aiming to overcome the shortcomings of model cleaning methods.FedDO calculates the gradient of the Jensen-Shannon divergence to decrease the discrepancy between selected clients’data distribution and the overall data distribution.We test our method on the multi-classification regression model,the multi-layer perceptron,and the convolutional neural network model on a handwritten digital image dataset.Compared with model cleaning methods,FedDO improves the training accuracy by 1.8%,2.6%,and 5.6%,respectively. 展开更多
关键词 federated learning Jensen-Shannon divergence distribution discrepancy gradient descent
原文传递
基于差分隐私的联邦学习方案 被引量:9
11
作者 孙敏 丁希宁 成倩 《计算机科学》 CSCD 北大核心 2024年第S01期900-905,共6页
联邦学习的特点之一是进行训练的服务器并不直接接触数据,因此联邦学习本身就具有保护数据安全的特性。但是研究表明,联邦学习在本地数据训练和中心模型聚合等方面均存在隐私泄露的问题。差分隐私是一种加噪技术,通过加入适当噪声达到... 联邦学习的特点之一是进行训练的服务器并不直接接触数据,因此联邦学习本身就具有保护数据安全的特性。但是研究表明,联邦学习在本地数据训练和中心模型聚合等方面均存在隐私泄露的问题。差分隐私是一种加噪技术,通过加入适当噪声达到攻击者区分不出用户信息的目的。文中研究了一种基于本地和中心差分隐私的混合加噪算法(LCDP-FL),该算法能根据各个客户端不同权重、不同隐私需求,为这些客户端提供本地或混合差分隐私保护。而且我们证明该算法能够在尽可能减少计算开支的同时,为用户提供他们所需的隐私保障。在MNIST数据集和CIFAR-10数据集上对该算法进行了测试,并与本地差分隐私(LDP-FL)和中心差分隐私(CDP-FL)等算法进行对比,结果显示该混合算法在精确度、损失率和隐私安全方面均有改进,其算法性能最优。 展开更多
关键词 联邦学习 差分隐私 隐私保护 混合加噪 梯度下降
在线阅读 下载PDF
基于算力-能量全分布式在线共享的5G网络负荷管理策略 被引量:5
12
作者 孙毅 陈恺 +4 位作者 郑顺林 王文婷 于芃 李开灿 董文秀 《电力系统保护与控制》 EI CSCD 北大核心 2024年第9期154-165,共12页
5G与边缘计算等信息基础设施海量部署造成运营商用电成本上升,需推动边缘网络与电网的能量互动以节能降本。现有研究重点关注边缘网络参与日前经济调度,未考虑可再生能源和网络流量双重随机性造成的网络能量供需不平衡问题。针对强随机... 5G与边缘计算等信息基础设施海量部署造成运营商用电成本上升,需推动边缘网络与电网的能量互动以节能降本。现有研究重点关注边缘网络参与日前经济调度,未考虑可再生能源和网络流量双重随机性造成的网络能量供需不平衡问题。针对强随机环境下的网络负荷管理问题,提出面向虚拟化边缘网络的能量实时管理策略。首先,以网络用能成本最小化为目标,构建联合网络资源管理、储能充放电与能量共享模型。其次,针对未来网络信息未知无法直接求解的问题,提出基于随机对偶次梯度法的在线管理策略。然后,针对资源共享涉及运营商隐私问题,提出全分布式的计算资源与能量协同共享算法。最后,仿真验证表明,所提在线算法在无需先验知识的前提下有效减少了5G边缘网络的用能成本。 展开更多
关键词 5G通信 在线调度 信息能量耦合 资源共享 随机对偶次梯度法 联邦梯度下降法
在线阅读 下载PDF
基于纵向联邦学习的短期风电功率协同预测方法 被引量:8
13
作者 赵寒亭 张耀 +3 位作者 霍巍 王建学 吴峰 张衡 《电力系统自动化》 EI CSCD 北大核心 2023年第16期44-53,共10页
由于风力资源具有时空相关性,使用邻近场站的相关数据可以提高待预测场站的预测精度。然而不同场站通常分属不同发电集团,由于商业竞争和数据安全考量,彼此难以获得对方的隐私数据。针对上述问题,首先,提出了基于改进k近邻算法的岭回归... 由于风力资源具有时空相关性,使用邻近场站的相关数据可以提高待预测场站的预测精度。然而不同场站通常分属不同发电集团,由于商业竞争和数据安全考量,彼此难以获得对方的隐私数据。针对上述问题,首先,提出了基于改进k近邻算法的岭回归预测模型;然后,在纵向联邦学习的机制下,采用同步梯度下降算法对所提预测模型进行迭代求解;利用梯度向量可拆分计算的特点,推导了风电预测模型的分布式训练过程和分布式预测过程,将原本的大规模预测问题分解为大量的小规模子问题,且每个子问题由相应的风电场站在本地进行计算。在保证各参与方数据隐私安全的基础上,可以有效利用邻近场站的数据信息,从而提高风电功率预测精度。最后,以实际算例验证了所提方法的有效性。 展开更多
关键词 风电预测 岭回归 K近邻算法 梯度下降 纵向联邦学习 分布式优化
在线阅读 下载PDF
基于隐式随机梯度下降优化的联邦学习 被引量:12
14
作者 窦勇敢 袁晓彤 《智能系统学报》 CSCD 北大核心 2022年第3期488-495,共8页
联邦学习是一种分布式机器学习范式,中央服务器通过协作大量远程设备训练一个最优的全局模型。目前联邦学习主要存在系统异构性和数据异构性这两个关键挑战。本文主要针对异构性导致的全局模型收敛慢甚至无法收敛的问题,提出基于隐式随... 联邦学习是一种分布式机器学习范式,中央服务器通过协作大量远程设备训练一个最优的全局模型。目前联邦学习主要存在系统异构性和数据异构性这两个关键挑战。本文主要针对异构性导致的全局模型收敛慢甚至无法收敛的问题,提出基于隐式随机梯度下降优化的联邦学习算法。与传统联邦学习更新方式不同,本文利用本地上传的模型参数近似求出平均全局梯度,同时避免求解一阶导数,通过梯度下降来更新全局模型参数,使全局模型能够在较少的通信轮数下达到更快更稳定的收敛结果。在实验中,模拟了不同等级的异构环境,本文提出的算法比FedProx和FedAvg均表现出更快更稳定的收敛结果。在相同收敛结果的前提下,本文的方法在高度异构的合成数据集上比FedProx通信轮数减少近50%,显著提升了联邦学习的稳定性和鲁棒性。 展开更多
关键词 联邦学习 分布式机器学习 中央服务器 全局模型 隐式随机梯度下降 数据异构 系统异构 优化算法 快速收敛
在线阅读 下载PDF
基于Reptile的个性化联邦学习算法 被引量:1
15
作者 夏雨 崔文泉 《计算机系统应用》 2022年第12期294-300,共7页
在联邦学习背景下,由于行业竞争、隐私保护等壁垒,用户数据保留在本地,无法集中在一处训练.为充分利用用户的数据和算力,用户可通过中央服务器协同训练模型,训练得到的公共模型为用户共享,但公共模型对于不同用户会产生相同输出,难以适... 在联邦学习背景下,由于行业竞争、隐私保护等壁垒,用户数据保留在本地,无法集中在一处训练.为充分利用用户的数据和算力,用户可通过中央服务器协同训练模型,训练得到的公共模型为用户共享,但公共模型对于不同用户会产生相同输出,难以适应用户数据是异质的常见情形.针对该问题,提出一种基于元学习方法Reptile的新算法,为用户学习个性化联邦学习模型.Reptile可高效学习多任务的模型初始化参数,在新任务到来时,仅需几步梯度下降就能收敛到良好的模型参数.利用这一优势,将Reptile与联邦平均(federated averaging,FedAvg)相结合,用户终端利用Reptile处理多任务并更新参数,之后中央服务器将用户更新的参数进行平均聚合,迭代学习更好的模型初始化参数,最后将其应用于各用户数据后仅需几步梯度下降即可获得个性化模型.实验中使用模拟数据和真实数据设置了联邦学习场景,实验表明该算法相比其他算法能够更快收敛,具有更好的个性化学习能力. 展开更多
关键词 联邦学习 元学习 个性化学习 异质数据 梯度下降 隐私保护
在线阅读 下载PDF
FCAT⁃FL:基于Non⁃IID数据的高效联邦学习算法 被引量:2
16
作者 陈飞扬 周晖 张一迪 《南京邮电大学学报(自然科学版)》 北大核心 2022年第3期90-99,共10页
针对非独立同分布(Non⁃IID)数据影响联邦学习收敛速度、公平性和准确性的问题,提出一种基于Non⁃IID数据的快速收敛公平联邦迁移学习框架———FCAT⁃FL。该框架改进传统联邦学习依照客户端数据量占比权衡聚合贡献度的策略,根据客户端本... 针对非独立同分布(Non⁃IID)数据影响联邦学习收敛速度、公平性和准确性的问题,提出一种基于Non⁃IID数据的快速收敛公平联邦迁移学习框架———FCAT⁃FL。该框架改进传统联邦学习依照客户端数据量占比权衡聚合贡献度的策略,根据客户端本地模型参数和服务器聚合模型参数间的关系,在每轮聚合时为客户端动态分配自适应权重,并在客户端引入个性化迁移学习模型和动量梯度下降算法以求加快本地模型训练速度。实验结果表明:与几种基线聚合策略相比,当部分客户端的数据为Non⁃IID时,FCAT⁃FL中聚合策略1的全局迭代轮次有所减少,客户端间公平性和准确性得到提高,并且迁移学习的使用令客户端需训练和上传的模型参数数量减少,使FCAT⁃FL适用于客户端资源有限的移动边缘网络。 展开更多
关键词 联邦学习 非独立同分布 收敛性 公平性 迁移学习 动量梯度下降
在线阅读 下载PDF
联合双维度用户调度的自适应联邦边缘学习
17
作者 张九川 潘春雨 +2 位作者 周天依 李学华 丁勇 《计算机工程与应用》 CSCD 北大核心 2024年第4期153-162,共10页
联邦边缘学习无需传输本地数据,在保护用户隐私的基础上,大大降低了上行链路压力。联邦边缘学习通过智能边缘设备,利用本地数据集训练局部模型后上传模型参数至中心服务器;中心服务器聚合本地上传的局部模型参数形成全局模型后进行更新... 联邦边缘学习无需传输本地数据,在保护用户隐私的基础上,大大降低了上行链路压力。联邦边缘学习通过智能边缘设备,利用本地数据集训练局部模型后上传模型参数至中心服务器;中心服务器聚合本地上传的局部模型参数形成全局模型后进行更新,然后将更新后的模型下发给智能边缘设备开始新一轮迭代。但是局部模型精度以及局部模型训练时间,对全局模型聚合以及模型更新过程会产生重大影响。因此提出自适应动态批量梯度下降策略,在局部模型训练过程中自动调整梯度下降抽取的批量大小,优化联邦学习的局部模型精度及收敛速度。针对用户数据的非独立同分布特性,设计一种联合双维度用户调度策略的自适应动态批量梯度下降算法,通过收敛时间和数据多样性进行双维度约束。经MNIST数据集、fashion MNIST数据集和CIFAR-10数据集的训练测试,算法在有效降低聚合等待时间的同时能够进一步提高全局模型精度和收敛速度。与固定批量为64、128、256的梯度下降算法相比,该算法的全局模型精度在运行100 s时提升分别为32.4%、45.2%、87.5%。 展开更多
关键词 联邦边缘学习 批量梯度下降 用户调度 非独立同分布数据
在线阅读 下载PDF
自适应差分隐私的联邦学习方案
18
作者 高媛 石润华 刘长杰 《智能系统学报》 CSCD 北大核心 2024年第6期1395-1406,共12页
差分隐私被广泛应用于联邦学习中,以保障模型参数的安全,但不够合理的加噪方式会限制模型准确度进一步提高。为此,提出一种能够自适应分配隐私预算和计算学习率的联邦学习方案(differential privacyfederated learning adaptive gradien... 差分隐私被广泛应用于联邦学习中,以保障模型参数的安全,但不够合理的加噪方式会限制模型准确度进一步提高。为此,提出一种能够自适应分配隐私预算和计算学习率的联邦学习方案(differential privacyfederated learning adaptive gradient descent,DP-FLAGD),通过自适应分配隐私预算找到梯度的正确下降方向,并计算合适的学习率以达到最小的损失。同时,DP-FLAGD方案能够为不同隐私需求的用户提供不同的隐私预算,以满足其需求。为评估DP-FLAGD的有效性,在广泛使用的2个数据集MNIST(modiffe national institute of standard and technology)和CIFAR-10上进行相关实验,实验结果表明,DP-FLAGD方案在保证模型参数安全的同时,能够进一步提高模型的准确率。 展开更多
关键词 联邦学习 差分隐私 自适应 梯度下降 卷积神经网络 学习率 梯度 隐私预算
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部