期刊文献+
共找到137篇文章
< 1 2 7 >
每页显示 20 50 100
Adaptive regulation-based Mutual Information Camouflage Poisoning Attack in Graph Neural Networks
1
作者 Jihui Yin Taorui Yang +3 位作者 Yifei Sun Jianzhi Gao Jiangbo Lu Zhi-Hui Zhan 《Journal of Automation and Intelligence》 2025年第1期21-28,共8页
Studies show that Graph Neural Networks(GNNs)are susceptible to minor perturbations.Therefore,analyzing adversarial attacks on GNNs is crucial in current research.Previous studies used Generative Adversarial Networks ... Studies show that Graph Neural Networks(GNNs)are susceptible to minor perturbations.Therefore,analyzing adversarial attacks on GNNs is crucial in current research.Previous studies used Generative Adversarial Networks to generate a set of fake nodes,injecting them into a clean GNNs to poison the graph structure and evaluate the robustness of GNNs.In the attack process,the computation of new node connections and the attack loss are independent,which affects the attack on the GNN.To improve this,a Fake Node Camouflage Attack based on Mutual Information(FNCAMI)algorithm is proposed.By incorporating Mutual Information(MI)loss,the distribution of nodes injected into the GNNs become more similar to the original nodes,achieving better attack results.Since the loss ratios of GNNs and MI affect performance,we also design an adaptive weighting method.By adjusting the loss weights in real-time through rate changes,larger loss values are obtained,eliminating local optima.The feasibility,effectiveness,and stealthiness of this algorithm are validated on four real datasets.Additionally,we use both global and targeted attacks to test the algorithm’s performance.Comparisons with baseline attack algorithms and ablation experiments demonstrate the efficiency of the FNCAMI algorithm. 展开更多
关键词 Mutual information Adaptive weighting poisoning attack Graph neural networks
在线阅读 下载PDF
Defense Against Poisoning Attack via Evaluating TrainingSamples Using Multiple Spectral Clustering Aggregation Method 被引量:2
2
作者 Wentao Zhao Pan Li +2 位作者 Chengzhang Zhu Dan Liu Xiao Liu 《Computers, Materials & Continua》 SCIE EI 2019年第6期817-832,共16页
The defense techniques for machine learning are critical yet challenging due tothe number and type of attacks for widely applied machine learning algorithms aresignificantly increasing. Among these attacks, the poison... The defense techniques for machine learning are critical yet challenging due tothe number and type of attacks for widely applied machine learning algorithms aresignificantly increasing. Among these attacks, the poisoning attack, which disturbsmachine learning algorithms by injecting poisoning samples, is an attack with the greatestthreat. In this paper, we focus on analyzing the characteristics of positioning samples andpropose a novel sample evaluation method to defend against the poisoning attack cateringfor the characteristics of poisoning samples. To capture the intrinsic data characteristicsfrom heterogeneous aspects, we first evaluate training data by multiple criteria, each ofwhich is reformulated from a spectral clustering. Then, we integrate the multipleevaluation scores generated by the multiple criteria through the proposed multiplespectral clustering aggregation (MSCA) method. Finally, we use the unified score as theindicator of poisoning attack samples. Experimental results on intrusion detection datasets show that MSCA significantly outperforms the K-means outlier detection in terms ofdata legality evaluation and poisoning attack detection. 展开更多
关键词 poisoning attack sample evaluation spectral clustering ensemble learning.
暂未订购
Privacy-Preserving Large-Scale AI Models for Intelligent Railway Transportation Systems:Hierarchical Poisoning Attacks and Defenses in Federated Learning
3
作者 Yongsheng Zhu Chong Liu +8 位作者 Chunlei Chen Xiaoting Lyu Zheng Chen Bin Wang Fuqiang Hu Hanxi Li Jiao Dai Baigen Cai Wei Wang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第11期1305-1325,共21页
The development of Intelligent Railway Transportation Systems necessitates incorporating privacy-preserving mechanisms into AI models to protect sensitive information and enhance system efficiency.Federated learning o... The development of Intelligent Railway Transportation Systems necessitates incorporating privacy-preserving mechanisms into AI models to protect sensitive information and enhance system efficiency.Federated learning offers a promising solution by allowing multiple clients to train models collaboratively without sharing private data.However,despite its privacy benefits,federated learning systems are vulnerable to poisoning attacks,where adversaries alter local model parameters on compromised clients and send malicious updates to the server,potentially compromising the global model’s accuracy.In this study,we introduce PMM(Perturbation coefficient Multiplied by Maximum value),a new poisoning attack method that perturbs model updates layer by layer,demonstrating the threat of poisoning attacks faced by federated learning.Extensive experiments across three distinct datasets have demonstrated PMM’s ability to significantly reduce the global model’s accuracy.Additionally,we propose an effective defense method,namely CLBL(Cluster Layer By Layer).Experiment results on three datasets have confirmed CLBL’s effectiveness. 展开更多
关键词 PRIVACY-PRESERVING intelligent railway transportation system federated learning poisoning attacks DEFENSES
在线阅读 下载PDF
Evaluating the Efficacy of Latent Variables in Mitigating Data Poisoning Attacks in the Context of Bayesian Networks:An Empirical Study
4
作者 Shahad Alzahrani Hatim Alsuwat Emad Alsuwat 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第5期1635-1654,共20页
Bayesian networks are a powerful class of graphical decision models used to represent causal relationships among variables.However,the reliability and integrity of learned Bayesian network models are highly dependent ... Bayesian networks are a powerful class of graphical decision models used to represent causal relationships among variables.However,the reliability and integrity of learned Bayesian network models are highly dependent on the quality of incoming data streams.One of the primary challenges with Bayesian networks is their vulnerability to adversarial data poisoning attacks,wherein malicious data is injected into the training dataset to negatively influence the Bayesian network models and impair their performance.In this research paper,we propose an efficient framework for detecting data poisoning attacks against Bayesian network structure learning algorithms.Our framework utilizes latent variables to quantify the amount of belief between every two nodes in each causal model over time.We use our innovative methodology to tackle an important issue with data poisoning assaults in the context of Bayesian networks.With regard to four different forms of data poisoning attacks,we specifically aim to strengthen the security and dependability of Bayesian network structure learning techniques,such as the PC algorithm.By doing this,we explore the complexity of this area and offer workablemethods for identifying and reducing these sneaky dangers.Additionally,our research investigates one particular use case,the“Visit to Asia Network.”The practical consequences of using uncertainty as a way to spot cases of data poisoning are explored in this inquiry,which is of utmost relevance.Our results demonstrate the promising efficacy of latent variables in detecting and mitigating the threat of data poisoning attacks.Additionally,our proposed latent-based framework proves to be sensitive in detecting malicious data poisoning attacks in the context of stream data. 展开更多
关键词 Bayesian networks data poisoning attacks latent variables structure learning algorithms adversarial attacks
在线阅读 下载PDF
Poisoning attacks and countermeasures in intelligent networks:Status quo and prospects
5
作者 Chen Wang Jian Chen +2 位作者 Yang Yang Xiaoqiang Ma Jiangchuan Liu 《Digital Communications and Networks》 SCIE CSCD 2022年第2期225-234,共10页
Over the past years,the emergence of intelligent networks empowered by machine learning techniques has brought great facilitates to different aspects of human life.However,using machine learning in intelligent network... Over the past years,the emergence of intelligent networks empowered by machine learning techniques has brought great facilitates to different aspects of human life.However,using machine learning in intelligent networks also presents potential security and privacy threats.A common practice is the so-called poisoning attacks where malicious users inject fake training data with the aim of corrupting the learned model.In this survey,we comprehensively review existing poisoning attacks as well as the countermeasures in intelligent networks for the first time.We emphasize and compare the principles of the formal poisoning attacks employed in different categories of learning algorithms,and analyze the strengths and limitations of corresponding defense methods in a compact form.We also highlight some remaining challenges and future directions in the attack-defense confrontation to promote further research in this emerging yet promising area. 展开更多
关键词 Machine learning poisoning attack Intelligent networks Security threat
在线阅读 下载PDF
DISTINIT:Data poISoning atTacks dectectIon usiNg optIized jaCcard disTance
6
作者 Maria Sameen Seong Oun Hwang 《Computers, Materials & Continua》 SCIE EI 2022年第12期4559-4576,共18页
Machine Learning(ML)systems often involve a re-training process to make better predictions and classifications.This re-training process creates a loophole and poses a security threat for ML systems.Adversaries leverag... Machine Learning(ML)systems often involve a re-training process to make better predictions and classifications.This re-training process creates a loophole and poses a security threat for ML systems.Adversaries leverage this loophole and design data poisoning attacks against ML systems.Data poisoning attacks are a type of attack in which an adversary manipulates the training dataset to degrade the ML system’s performance.Data poisoning attacks are challenging to detect,and even more difficult to respond to,particularly in the Internet of Things(IoT)environment.To address this problem,we proposed DISTINIT,the first proactive data poisoning attack detection framework using distancemeasures.We found that Jaccard Distance(JD)can be used in the DISTINIT(among other distance measures)and we finally improved the JD to attain an Optimized JD(OJD)with lower time and space complexity.Our security analysis shows that the DISTINIT is secure against data poisoning attacks by considering key features of adversarial attacks.We conclude that the proposed OJD-based DISTINIT is effective and efficient against data poisoning attacks where in-time detection is critical for IoT applications with large volumes of streaming data. 展开更多
关键词 Data poisoning attacks detection framework jaccard distance(JD) optimized jaccard distance(OJD) security analysis
在线阅读 下载PDF
DroidEnemy: Battling adversarial example attacks for Android malware detection
7
作者 Neha Bala Aemun Ahmar +3 位作者 Wenjia Li Fernanda Tovar Arpit Battu Prachi Bambarkar 《Digital Communications and Networks》 SCIE CSCD 2022年第6期1040-1047,共8页
In recent years,we have witnessed a surge in mobile devices such as smartphones,tablets,smart watches,etc.,most of which are based on the Android operating system.However,because these Android-based mobile devices are... In recent years,we have witnessed a surge in mobile devices such as smartphones,tablets,smart watches,etc.,most of which are based on the Android operating system.However,because these Android-based mobile devices are becoming increasingly popular,they are now the primary target of mobile malware,which could lead to both privacy leakage and property loss.To address the rapidly deteriorating security issues caused by mobile malware,various research efforts have been made to develop novel and effective detection mechanisms to identify and combat them.Nevertheless,in order to avoid being caught by these malware detection mechanisms,malware authors are inclined to initiate adversarial example attacks by tampering with mobile applications.In this paper,several types of adversarial example attacks are investigated and a feasible approach is proposed to fight against them.First,we look at adversarial example attacks on the Android system and prior solutions that have been proposed to address these attacks.Then,we specifically focus on the data poisoning attack and evasion attack models,which may mutate various application features,such as API calls,permissions and the class label,to produce adversarial examples.Then,we propose and design a malware detection approach that is resistant to adversarial examples.To observe and investigate how the malware detection system is influenced by the adversarial example attacks,we conduct experiments on some real Android application datasets which are composed of both malware and benign applications.Experimental results clearly indicate that the performance of Android malware detection is severely degraded when facing adversarial example attacks. 展开更多
关键词 Security Malware detection Adversarial example attack Data poisoning attack Evasi on attack Machine learning ANDROID
在线阅读 下载PDF
Data complexity-based batch sanitization method against poison in distributed learning
8
作者 Silv Wang Kai Fan +2 位作者 Kuan Zhang Hui Li Yintang Yang 《Digital Communications and Networks》 SCIE CSCD 2024年第2期416-428,共13页
The security of Federated Learning(FL)/Distributed Machine Learning(DML)is gravely threatened by data poisoning attacks,which destroy the usability of the model by contaminating training samples,so such attacks are ca... The security of Federated Learning(FL)/Distributed Machine Learning(DML)is gravely threatened by data poisoning attacks,which destroy the usability of the model by contaminating training samples,so such attacks are called causative availability indiscriminate attacks.Facing the problem that existing data sanitization methods are hard to apply to real-time applications due to their tedious process and heavy computations,we propose a new supervised batch detection method for poison,which can fleetly sanitize the training dataset before the local model training.We design a training dataset generation method that helps to enhance accuracy and uses data complexity features to train a detection model,which will be used in an efficient batch hierarchical detection process.Our model stockpiles knowledge about poison,which can be expanded by retraining to adapt to new attacks.Being neither attack-specific nor scenario-specific,our method is applicable to FL/DML or other online or offline scenarios. 展开更多
关键词 Distributed machine learning security Federated learning Data poisoning attacks Data sanitization Batch detection Data complexity
在线阅读 下载PDF
联邦原型学习的特征图中毒攻击和双重防御机制 被引量:2
9
作者 王瑞锦 王金波 +3 位作者 张凤荔 李经纬 李增鹏 陈厅 《软件学报》 北大核心 2025年第3期1355-1374,共20页
联邦学习是一种无需用户共享私有数据、以分布式迭代协作训练全局机器学习模型的框架.目前流行的联邦学习方法FedProto采用抽象类原型(称为特征图)聚合,优化模型收敛速度和泛化能力.然而,该方法未考虑所聚合的特征图的正确性,而错误的... 联邦学习是一种无需用户共享私有数据、以分布式迭代协作训练全局机器学习模型的框架.目前流行的联邦学习方法FedProto采用抽象类原型(称为特征图)聚合,优化模型收敛速度和泛化能力.然而,该方法未考虑所聚合的特征图的正确性,而错误的特征图可能导致模型训练失效.为此,首先探索针对FedProto的特征图中毒攻击,论证攻击者只需通过置乱训练数据的标签,便可将模型的推测准确率至多降低81.72%.为了抵御上述攻击,进一步提出双重防御机制,分别通过全知识蒸馏和特征图甄别排除错误的特征图.基于真实数据集的实验表明,防御机制可将受攻击模型的推测准确率提升1-5倍,且仅增加2%系统运行时间. 展开更多
关键词 联邦学习 数据异构 知识蒸馏 特征图中毒攻击 双重防御机制
在线阅读 下载PDF
基于联邦学习的工控机业务行为分布式安全检测 被引量:1
10
作者 李健俊 王万江 +4 位作者 陈鹏 张帅 张利宏 李威 董惠良 《计算机集成制造系统》 北大核心 2025年第3期841-854,共14页
工业互联网时代,不同厂商希望通过共享本地数据得到更完善的安全检测模型,但接入互联网后本地数据更易遭到窃取,而联邦学习可以通过交换模型参数的方式达到数据隐私保护和共享的目的。现有针对工业计算机的安全检测方法还存在一些缺陷:... 工业互联网时代,不同厂商希望通过共享本地数据得到更完善的安全检测模型,但接入互联网后本地数据更易遭到窃取,而联邦学习可以通过交换模型参数的方式达到数据隐私保护和共享的目的。现有针对工业计算机的安全检测方法还存在一些缺陷:①很少考虑从业务行为方面提取特征模型;②难以解决本地数据被篡改而导致的模型偏移问题;③检测系统前端检测、后端分析的网络结构会增加从后端管理网到前端控制网之间的通信通道,从而给管理网引入新的攻击路径。针对上述问题,提出基于联邦学习的工控机业务行为分布式安全检测方法,包括工控机业务行为特征检测方法、基于信息熵分配权重的联邦学习模型聚合方法、基于转发硬件的数据传输重构方法;能够提高针对工控应用协议的攻击识别准确率,减轻工业控制计算机数据污染导致的模型偏移,防止攻击者利用管理网的分析后台进行远程攻击;实现了原型系统,并在卷接设备控制系统中进行了实验验证,与采用非业务行为建模的相关方法相比,所提方法对中间人攻击和远程攻击检测准确率分别提高了17%和24%;在自有和公开数据集上的验证结果表明,方法比常用的3种聚合算法的准确率提高了0.6%~2.4%,遭到数据毒化攻击后,所提方法准确率下降为0.6%和1.1%,而其他算法下降了1.1%~7.5%和1.5%~4.5%;并能够防止攻击者利用管理网检测后台漏洞发起向控制网的远程攻击,减小攻击面。 展开更多
关键词 工业控制系统 业务行为检测 联邦学习 数据毒化 攻击过滤
在线阅读 下载PDF
基于代理生成对抗网络的服务质量感知云API推荐系统投毒攻击 被引量:1
11
作者 陈真 刘伟 +3 位作者 吕瑞民 马佳洁 冯佳音 尤殿龙 《通信学报》 北大核心 2025年第3期174-186,共13页
针对现有投毒攻击方法生成的虚假用户攻击数据存在攻击效果差且易被检测的不足,提出一种基于代理生成对抗网络的投毒攻击方法。首先,在生成对抗网络中采用K-means算法将数据分类,并引入自注意力机制学习每个类中的全局特征,解决生成对... 针对现有投毒攻击方法生成的虚假用户攻击数据存在攻击效果差且易被检测的不足,提出一种基于代理生成对抗网络的投毒攻击方法。首先,在生成对抗网络中采用K-means算法将数据分类,并引入自注意力机制学习每个类中的全局特征,解决生成对抗网络在数据稀疏时难以有效捕捉真实用户复杂行为模式这一问题,提升虚假用户的隐蔽性。其次,引入代理模型评估生成对抗网络生成的虚假用户的攻击效果,将评估结果作为代理损失优化生成对抗网络,进而实现在兼顾虚假用户隐蔽性的同时增强攻击效果。云API服务质量数据集上的实验表明,所提方法在兼顾攻击的有效性和隐蔽性方面均优于现有方法。 展开更多
关键词 推荐系统 云API 投毒攻击 生成对抗网络 代理模型
在线阅读 下载PDF
面向异构数据的安全自适应联邦学习框架 被引量:2
12
作者 李功丽 刘芳芳 +1 位作者 雷宏志 王梦涛 《计算机应用研究》 北大核心 2025年第5期1523-1531,共9页
联邦学习(FL)作为一种分布式学习范式,实现了本地训练和远程聚合,可以有效保护用户数据的安全。但是,也产生了推理攻击和投毒攻击等一系列问题,特别是在数据异构场景下投毒检测变得更加困难。针对上述问题,在数据异构场景下提出了一种... 联邦学习(FL)作为一种分布式学习范式,实现了本地训练和远程聚合,可以有效保护用户数据的安全。但是,也产生了推理攻击和投毒攻击等一系列问题,特别是在数据异构场景下投毒检测变得更加困难。针对上述问题,在数据异构场景下提出了一种安全自适应联邦学习方案(SAFL)。首先,SAFL利用边缘节点之间的相似性设计了一种聚类分层的隐私保护FL架构,并提出了基于零共享的轻量级FL安全求和协议,在保护模型参数隐私性的同时防止边缘节点与服务器之间合谋;然后,构造了一种密文下投毒检测方案并根据检测结果自适应裁剪确定簇内聚合系数,提高模型的鲁棒性;其次,提出了基于Wasserstein距离的自适应簇间聚合方案,增强全局模型的精度;最后,对SAFL进行安全分析,并将SAFL与现有方案进行比较。结果表明,在数据异构和盲化模型参数的情况下,SAFL仍能够有效检测恶意边缘节点,模型准确率提高约6.2%~45.6%,优于现有方案,并保持较低的计算和通信成本。 展开更多
关键词 联邦学习 隐私保护 投毒攻击检测 零共享 自适应聚合 安全余弦相似度
在线阅读 下载PDF
基于ResNet的联邦学习投毒攻击防御方法设计与实验
13
作者 郭晓军 韩一鑫 丁福豪 《实验室研究与探索》 北大核心 2025年第11期24-29,共6页
针对联邦学习易遭受投毒攻击的问题,提出了一种基于自注意力机制ResNet网络的联邦学习防御方法——SARFL。该方法采用客户端提交公开数据预测标签的方式完成模型更新,替代传统的梯度参数上传机制,并引入自注意力增强ResNet网络架构以提... 针对联邦学习易遭受投毒攻击的问题,提出了一种基于自注意力机制ResNet网络的联邦学习防御方法——SARFL。该方法采用客户端提交公开数据预测标签的方式完成模型更新,替代传统的梯度参数上传机制,并引入自注意力增强ResNet网络架构以提升模型性能。此外,SARFL结合用户信用机制,动态评估各参与方的可靠性。实验结果表明,SARFL在测试数据集上准确率可达99.88%,且呈现较好的稳定性。在应对脏标签攻击和模型投毒攻击时,相较于现有主流联邦学习方法,SARFL在模型准确率与稳定性方面有显著提升,展现更优的防卸性能。 展开更多
关键词 联邦学习 投毒攻击 注意力机制 ResNet
在线阅读 下载PDF
特征感知变换自编码器防御模型偏斜式投毒攻击
14
作者 罗文华 杨立圣 张鹏 《小型微型计算机系统》 北大核心 2025年第8期2033-2040,共8页
流量分类模型更新易受数据投毒攻击,现有模型偏斜式投毒攻击防御方法聚焦特征固定的图像分类任务,面对特征复杂的流量分类问题适用性有限.针对上述问题,设计少特征攻击的投影梯度下降法,生成对抗样本进行偏斜式投毒攻击;提出特征感知变... 流量分类模型更新易受数据投毒攻击,现有模型偏斜式投毒攻击防御方法聚焦特征固定的图像分类任务,面对特征复杂的流量分类问题适用性有限.针对上述问题,设计少特征攻击的投影梯度下降法,生成对抗样本进行偏斜式投毒攻击;提出特征感知变换自编码器的模型偏斜式投毒防御方法,在自编码器训练阶段引入特征感知噪声扰动,以限制扰动范围并增强自编码器对抗样本噪声过滤能力.通过构建流量数据变换自编码器重构并消除对抗样本的对抗性,利用变换后的样本数据与原始数据进行预测差异性判定,实现对抗样本判别过滤.实验结果表明,该方法能够有效识别新增训练样本中的对抗样本,降低偏斜式数据投毒攻击对流量分类模型的负面影响. 展开更多
关键词 数据投毒攻击 流量分类模型 对抗样本 自编码器
在线阅读 下载PDF
Robust-PFedproto:基于个性化层的鲁棒联邦原型学习方法
15
作者 徐明迪 李正潇 +1 位作者 王梓行 靳朝阳 《网络与信息安全学报》 2025年第3期67-80,共14页
联邦学习(federated learning,FL)是一种高效的分布式机器学习框架,其核心优势在于训练数据可保留在网络中的远程客户端。然而,该方法面临两大关键挑战。其一,不同客户端的数据分布通常呈现异构性,这种数据分布的差异性会显著降低整体... 联邦学习(federated learning,FL)是一种高效的分布式机器学习框架,其核心优势在于训练数据可保留在网络中的远程客户端。然而,该方法面临两大关键挑战。其一,不同客户端的数据分布通常呈现异构性,这种数据分布的差异性会显著降低整体训练效率;其二,由于中央服务器无法获取远程客户端的真实数据,恶意客户端可能上传恶意模型更新,进而对全局训练的准确性和效率产生负面影响。为解决数据异构性问题,提出了PFedproto框架,该框架在原型学习的基础上引入了个性化层。个性化层位于每个客户端的决策层之前,其参数可通过学习优化,使客户端模型能够更好地适配本地数据集,从而提升模型在本地任务中的预测准确率。在此基础上,进一步构建了3阶段防御方案Robust-PFedproto,旨在增强PFedproto框架的鲁棒性,以有效抵御数据投毒攻击。在4个真实图像分类数据集上开展了实验,结果表明PFedproto框架能够更高效地缓解数据异构性的影响,Robust-PFedproto方案在有效应对数据异构性的同时,对数据投毒攻击展现出良好的鲁棒性。 展开更多
关键词 联邦学习 原型学习 核密度估计 中毒攻击
在线阅读 下载PDF
基于多方计算的安全拜占庭弹性联邦学习 被引量:3
16
作者 高鸿峰 黄浩 田有亮 《通信学报》 北大核心 2025年第2期108-122,共15页
为了解决联邦学习中梯度隐私保护、服务器推理攻击和客户端数据投毒导致的低准确率等问题,针对服务器-客户端的两层架构,提出了一种基于多方计算的安全拜占庭弹性联邦学习方案。首先,提出了一种基于加法秘密共享的两方密文计算方法,对... 为了解决联邦学习中梯度隐私保护、服务器推理攻击和客户端数据投毒导致的低准确率等问题,针对服务器-客户端的两层架构,提出了一种基于多方计算的安全拜占庭弹性联邦学习方案。首先,提出了一种基于加法秘密共享的两方密文计算方法,对本地模型梯度进行拆分,来抵抗服务器的推理攻击。其次,设计了一种密态数据下的投毒检测算法和客户端筛选机制来抵御投毒攻击。最后,在MNIST数据集和CIFAR-10数据集上进行实验来验证方案的可行性。与传统的Trim-mean和Median方法相比,当拜占庭参与者比例达到40%时,模型的准确率提升了3%~6%。综上所述,所提方案既能抵御推理攻击和投毒攻击,又能提高全局模型的准确率,足以证明方案的有效性。 展开更多
关键词 联邦学习 隐私保护 多方计算 推理攻击 投毒攻击
在线阅读 下载PDF
抗攻击的联邦学习隐私保护算法 被引量:2
17
作者 吴若岚 陈玉玲 +2 位作者 豆慧 张洋文 龙钟 《计算机工程》 北大核心 2025年第2期179-187,共9页
联邦学习作为新兴的分布式学习框架,允许多个客户端在不共享原始数据的情况下共同进行全局模型的训练,从而有效保护了数据隐私。然而,传统联邦学习仍然存在潜在的安全隐患,容易受到中毒攻击和推理攻击的威胁。因此,为了提高联邦学习的... 联邦学习作为新兴的分布式学习框架,允许多个客户端在不共享原始数据的情况下共同进行全局模型的训练,从而有效保护了数据隐私。然而,传统联邦学习仍然存在潜在的安全隐患,容易受到中毒攻击和推理攻击的威胁。因此,为了提高联邦学习的安全性和模型性能,需要准确地识别恶意客户端的行为,同时采用梯度加噪的方法来避免攻击者通过监控梯度信息来获取客户端的数据。结合恶意客户端检测机制和本地差分隐私技术提出了一种鲁棒的联邦学习框架。该算法首先利用梯度相似性来判断和识别潜在的恶意客户端,减小对模型训练任务产生的不良影响;其次,根据不同查询的敏感性以及用户的个体隐私需求,设计一种基于动态隐私预算的本地差分隐私算法,旨在平衡隐私保护和数据质量之间的权衡。在MNIST、CIFAR-10和MR文本分类数据集上的实验结果表明,与3种基准算法相比,该算法在准确性方面针对sP类客户端平均提高了3百分点,实现了联邦学习中更高的安全性水平,显著提升了模型性能。 展开更多
关键词 联邦学习 中毒攻击 推理攻击 本地差分隐私 隐私保护
在线阅读 下载PDF
一种隐私保护的抗投毒攻击联邦学习方案
18
作者 姚玉鹏 魏立斐 张蕾 《计算机工程》 北大核心 2025年第6期223-235,共13页
联邦学习实现了各参与方在不泄露原始数据的前提下联合建模,有效解决了分布式数据隐私的问题,但随着研究的深入,联邦学习还存在隐私推断攻击或恶意客户端投毒攻击等安全问题。现有联邦学习改进方案大多仅从隐私保护或抗投毒攻击方面进... 联邦学习实现了各参与方在不泄露原始数据的前提下联合建模,有效解决了分布式数据隐私的问题,但随着研究的深入,联邦学习还存在隐私推断攻击或恶意客户端投毒攻击等安全问题。现有联邦学习改进方案大多仅从隐私保护或抗投毒攻击方面进行改进,不能兼顾两种攻击。为了同时解决联邦学习中的推断攻击和投毒攻击,提出一个隐私保护的抗投毒攻击联邦学习(APFL)方案。设计一个模型检测算法,使用差分隐私(DP)技术,根据模型间余弦相似度赋予各客户端相应聚合权重,使用同态加密技术将本地模型加权聚合。在MNIST和CIFAR10数据集上的实验结果表明,APFL在保证数据隐私的同时能有效筛选恶意模型,抵御投毒攻击,当投毒比例不超过50%时,APFL模型性能与无投毒攻击环境下联邦平均(FedAvg)方案一致,模型测试错误率较Krum方案平均降低19%,较FLTrust方案平均降低9%。 展开更多
关键词 联邦学习 差分隐私 同态加密 隐私保护 投毒攻击
在线阅读 下载PDF
本地差分隐私频率估计伪数据攻击及防御方法
19
作者 王源源 朱友文 +2 位作者 吴启晖 王威 王箭 《软件学报》 北大核心 2025年第5期2212-2228,共17页
本地差分隐私被广泛地应用于保护用户隐私的同时收集和分析敏感数据,但是也易于受到恶意用户的伪数据攻击.子集选择机制和环机制是具有最优效用的频率估计本地差分隐私方案,然而,它们的抗伪数据攻击能力尚缺少深入地分析和评估.因此,针... 本地差分隐私被广泛地应用于保护用户隐私的同时收集和分析敏感数据,但是也易于受到恶意用户的伪数据攻击.子集选择机制和环机制是具有最优效用的频率估计本地差分隐私方案,然而,它们的抗伪数据攻击能力尚缺少深入地分析和评估.因此,针对子集选择机制和环机制,设计伪数据攻击方法,以评估其抗伪造攻击的能力.首先讨论随机扰动攻击和随机项目攻击,然后构建针对子集选择机制和环机制的攻击效用最大化伪数据攻击方法.攻击者可以利用该攻击方法,通过假用户向数据收集方发送精心制作的伪数据,最大化地提高攻击者所选目标值的频率.理论上严格分析和对比攻击效用,并通过实验评估伪数据攻击效果,展示伪数据攻击对子集选择机制和环机制的影响.最后,提出防御措施,可缓解伪数据攻击的效果. 展开更多
关键词 本地差分隐私 伪数据攻击 防御 子集选择机制 环机制
在线阅读 下载PDF
面向物联网的联邦学习防御投毒攻击方法
20
作者 李琪林 李永翔 +3 位作者 饶达 彭德中 段贵多 叶润 《四川大学学报(自然科学版)》 北大核心 2025年第6期1371-1384,共14页
在物联网(Internet of Things,IoT)环境中,联邦学习由于其无需集中存储数据即可实现模型训练的特点被广泛应用于隐私保护和分布式计算.然而,物联网设备的分布式特性和多样化的安全需求使得联邦学习系统容易受到数据中毒攻击,攻击者可能... 在物联网(Internet of Things,IoT)环境中,联邦学习由于其无需集中存储数据即可实现模型训练的特点被广泛应用于隐私保护和分布式计算.然而,物联网设备的分布式特性和多样化的安全需求使得联邦学习系统容易受到数据中毒攻击,攻击者可能通过上传恶意梯度来干扰全局模型的训练过程,从而威胁系统的安全性.尽管已有多种防御策略针对数据中毒攻击,但如何在保护隐私的同时确保系统对这些攻击的鲁棒性仍然是一个挑战.本文提出了一种新的名为DPI的防御方案,旨在解决这一问题.DPI通过设计一种无损聚合方案,有效地检测并隔离恶意梯度,避免了参与者实际梯度泄露.具体而言,DPI首先为每个参与者的梯度应用提供可移动的掩码,然后通过奇异值分解对掩码后的数据进行聚合与降维.接着,采用聚类算法从低维数据中检测并剔除中毒梯度.大量实验结果表明,DPI在检测有毒梯度方面表现优异,相较于现有最先进的方法,能够在隐私保护和数据安全方面实现更好的平衡,提升了联邦学习系统在物联网环境中的鲁棒性.DPI不仅能够有效应对中毒攻击,还能确保参与者的梯度隐私不被泄露,满足物联网场景下的安全需求. 展开更多
关键词 联邦学习 中毒攻击防御 奇异值分解
在线阅读 下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部