期刊文献+
共找到302篇文章
< 1 2 16 >
每页显示 20 50 100
Adaptive Simulation Backdoor Attack Based on Federated Learning
1
作者 SHI Xiujin XIA Kaixiong +3 位作者 YAN Guoying TAN Xuan SUN Yanxu ZHU Xiaolong 《Journal of Donghua University(English Edition)》 2026年第1期50-58,共9页
In federated learning,backdoor attacks have become an important research topic with their wide application in processing sensitive datasets.Since federated learning detects or modifies local models through defense mec... In federated learning,backdoor attacks have become an important research topic with their wide application in processing sensitive datasets.Since federated learning detects or modifies local models through defense mechanisms during aggregation,it is difficult to conduct effective backdoor attacks.In addition,existing backdoor attack methods are faced with challenges,such as low backdoor accuracy,poor ability to evade anomaly detection,and unstable model training.To address these challenges,a method called adaptive simulation backdoor attack(ASBA)is proposed.Specifically,ASBA improves the stability of model training by manipulating the local training process and using an adaptive mechanism,the ability of the malicious model to evade anomaly detection by combing large simulation training and clipping,and the backdoor accuracy by introducing a stimulus model to amplify the impact of the backdoor in the global model.Extensive comparative experiments under five advanced defense scenarios show that ASBA can effectively evade anomaly detection and achieve high backdoor accuracy in the global model.Furthermore,it exhibits excellent stability and effectiveness after multiple rounds of attacks,outperforming state-of-the-art backdoor attack methods. 展开更多
关键词 federated learning backdoor attack PRIVACY adaptive attack SIMULATION
在线阅读 下载PDF
AFI:Blackbox Backdoor Detection Method Based on Adaptive Feature Injection
2
作者 Simin Tang Zhiyong Zhang +3 位作者 Junyan Pan Gaoyuan Quan Weiguo Wang Junchang Jing 《Computers, Materials & Continua》 2026年第4期1890-1908,共19页
At inference time,deep neural networks are susceptible to backdoor attacks,which can produce attackercontrolled outputs when inputs contain carefully crafted triggers.Existing defense methods often focus on specific a... At inference time,deep neural networks are susceptible to backdoor attacks,which can produce attackercontrolled outputs when inputs contain carefully crafted triggers.Existing defense methods often focus on specific attack types or incur high costs,such as data cleaning or model fine-tuning.In contrast,we argue that it is possible to achieve effective and generalizable defense without removing triggers or incurring high model-cleaning costs.Fromthe attacker’s perspective and based on characteristics of vulnerable neuron activation anomalies,we propose an Adaptive Feature Injection(AFI)method for black-box backdoor detection.AFI employs a pre-trained image encoder to extract multi-level deep features and constructs a dynamic weight fusionmechanism for precise identification and interception of poisoned samples.Specifically,we select the control samples with the largest feature differences fromthe clean dataset via feature-space analysis,and generate blended sample pairs with the test sample using dynamic linear interpolation.The detection statistic is computed by measuring the divergence G(x)in model output responses.We systematically evaluate the effectiveness of AFI against representative backdoor attacks,including BadNets,Blend,WaNet,and IAB,on three benchmark datasets:MNIST,CIFAR-10,and ImageNet.Experimental results show that AFI can effectively detect poisoned samples,achieving average detection rates of 95.20%,94.15%,and 86.49%on these datasets,respectively.Compared with existing methods,AFI demonstrates strong cross-domain generalization ability and robustness to unknown attacks. 展开更多
关键词 Deep learning backdoor attacks universal detection feature fusion backward reasoning
在线阅读 下载PDF
CASBA:Capability-Adaptive Shadow Backdoor Attack against Federated Learning
3
作者 Hongwei Wu Guojian Li +2 位作者 Hanyun Zhang Zi Ye Chao Ma 《Computers, Materials & Continua》 2026年第3期1139-1163,共25页
Federated Learning(FL)protects data privacy through a distributed training mechanism,yet its decentralized nature also introduces new security vulnerabilities.Backdoor attacks inject malicious triggers into the global... Federated Learning(FL)protects data privacy through a distributed training mechanism,yet its decentralized nature also introduces new security vulnerabilities.Backdoor attacks inject malicious triggers into the global model through compromised updates,posing significant threats to model integrity and becoming a key focus in FL security.Existing backdoor attack methods typically embed triggers directly into original images and consider only data heterogeneity,resulting in limited stealth and adaptability.To address the heterogeneity of malicious client devices,this paper proposes a novel backdoor attack method named Capability-Adaptive Shadow Backdoor Attack(CASBA).By incorporating measurements of clients’computational and communication capabilities,CASBA employs a dynamic hierarchical attack strategy that adaptively aligns attack intensity with available resources.Furthermore,an improved deep convolutional generative adversarial network(DCGAN)is integrated into the attack pipeline to embed triggers without modifying original data,significantly enhancing stealthiness.Comparative experiments with Shadow Backdoor Attack(SBA)across multiple scenarios demonstrate that CASBA dynamically adjusts resource consumption based on device capabilities,reducing average memory usage per iteration by 5.8%.CASBA improves resource efficiency while keeping the drop in attack success rate within 3%.Additionally,the effectiveness of CASBA against three robust FL algorithms is also validated. 展开更多
关键词 Federated learning backdoor attack generative adversarial network adaptive attack strategy distributed machine learning
在线阅读 下载PDF
A survey of backdoor attacks and defenses:From deep neural networks to large language models
4
作者 Ling-Xin Jin Wei Jiang +5 位作者 Xiang-Yu Wen Mei-Yu Lin Jin-Yu Zhan Xing-Zhi Zhou Maregu Assefa Habtie Naoufel Werghi 《Journal of Electronic Science and Technology》 2025年第3期13-35,共23页
Deep neural networks(DNNs)have found extensive applications in safety-critical artificial intelligence systems,such as autonomous driving and facial recognition systems.However,recent research has revealed their susce... Deep neural networks(DNNs)have found extensive applications in safety-critical artificial intelligence systems,such as autonomous driving and facial recognition systems.However,recent research has revealed their susceptibility to backdoors maliciously injected by adversaries.This vulnerability arises due to the intricate architecture and opacity of DNNs,resulting in numerous redundant neurons embedded within the models.Adversaries exploit these vulnerabilities to conceal malicious backdoor information within DNNs,thereby causing erroneous outputs and posing substantial threats to the efficacy of DNN-based applications.This article presents a comprehensive survey of backdoor attacks against DNNs and the countermeasure methods employed to mitigate them.Initially,we trace the evolution of the concept from traditional backdoor attacks to backdoor attacks against DNNs,highlighting the feasibility and practicality of generating backdoor attacks against DNNs.Subsequently,we provide an overview of notable works encompassing various attack and defense strategies,facilitating a comparative analysis of their approaches.Through these discussions,we offer constructive insights aimed at refining these techniques.Finally,we extend our research perspective to the domain of large language models(LLMs)and synthesize the characteristics and developmental trends of backdoor attacks and defense methods targeting LLMs.Through a systematic review of existing studies on backdoor vulnerabilities in LLMs,we identify critical open challenges in this field and propose actionable directions for future research. 展开更多
关键词 backdoor Attacks backdoor defenses Deep neural networks Large language model
在线阅读 下载PDF
Proactive Disentangled Modeling of Trigger-Object Pairings for Backdoor Defense
5
作者 Kyle Stein Andrew AMahyari +1 位作者 Guillermo Francia III Eman El-Sheikh 《Computers, Materials & Continua》 2025年第10期1001-1018,共18页
Deep neural networks(DNNs)and generative AI(GenAI)are increasingly vulnerable to backdoor attacks,where adversaries embed triggers into inputs to cause models to misclassify or misinterpret target labels.Beyond tradit... Deep neural networks(DNNs)and generative AI(GenAI)are increasingly vulnerable to backdoor attacks,where adversaries embed triggers into inputs to cause models to misclassify or misinterpret target labels.Beyond traditional single-trigger scenarios,attackers may inject multiple triggers across various object classes,forming unseen backdoor-object configurations that evade standard detection pipelines.In this paper,we introduce DBOM(Disentangled Backdoor-Object Modeling),a proactive framework that leverages structured disentanglement to identify and neutralize both seen and unseen backdoor threats at the dataset level.Specifically,DBOM factorizes input image representations by modeling triggers and objects as independent primitives in the embedding space through the use of Vision-Language Models(VLMs).By leveraging the frozen,pre-trained encoders of VLMs,our approach decomposes the latent representations into distinct components through a learnable visual prompt repository and prompt prefix tuning,ensuring that the relationships between triggers and objects are explicitly captured.To separate trigger and object representations in the visual prompt repository,we introduce the trigger–object separation and diversity losses that aids in disentangling trigger and object visual features.Next,by aligning image features with feature decomposition and fusion,as well as learned contextual prompt tokens in a shared multimodal space,DBOM enables zero-shot generalization to novel trigger-object pairings that were unseen during training,thereby offering deeper insights into adversarial attack patterns.Experimental results on CIFAR-10 and GTSRB demonstrate that DBOM robustly detects poisoned images prior to downstream training,significantly enhancing the security of DNN training pipelines. 展开更多
关键词 backdoor attacks generative AI DISENTANGLEMENT
在线阅读 下载PDF
Defending against Backdoor Attacks in Federated Learning by Using Differential Privacy and OOD Data Attributes
6
作者 Qingyu Tan Yan Li Byeong-Seok Shin 《Computer Modeling in Engineering & Sciences》 2025年第5期2417-2428,共12页
Federated Learning(FL),a practical solution that leverages distributed data across devices without the need for centralized data storage,which enables multiple participants to jointly train models while preserving dat... Federated Learning(FL),a practical solution that leverages distributed data across devices without the need for centralized data storage,which enables multiple participants to jointly train models while preserving data privacy and avoiding direct data sharing.Despite its privacy-preserving advantages,FL remains vulnerable to backdoor attacks,where malicious participants introduce backdoors into local models that are then propagated to the global model through the aggregation process.While existing differential privacy defenses have demonstrated effectiveness against backdoor attacks in FL,they often incur a significant degradation in the performance of the aggregated models on benign tasks.To address this limitation,we propose a novel backdoor defense mechanism based on differential privacy.Our approach first utilizes the inherent out-of-distribution characteristics of backdoor samples to identify and exclude malicious model updates that significantly deviate from benign models.By filtering out models that are clearly backdoor-infected before applying differential privacy,our method reduces the required noise level for differential privacy,thereby enhancing model robustness while preserving performance.Experimental evaluations on the CIFAR10 and FEMNIST datasets demonstrate that our method effectively limits the backdoor accuracy to below 15%across various backdoor scenarios while maintaining high main task accuracy. 展开更多
关键词 Federated learning backdoor attacks differential privacy out-of-distribution data
在线阅读 下载PDF
How Robust Are Language Models against Backdoors in Federated Learning?
7
作者 Seunghan Kim Changhoon Lim +1 位作者 Gwonsang Ryu Hyunil Kim 《Computer Modeling in Engineering & Sciences》 2025年第11期2617-2630,共14页
Federated Learning enables privacy-preserving training of Transformer-based language models,but remains vulnerable to backdoor attacks that compromise model reliability.This paper presents a comparative analysis of de... Federated Learning enables privacy-preserving training of Transformer-based language models,but remains vulnerable to backdoor attacks that compromise model reliability.This paper presents a comparative analysis of defense strategies against both classical and advanced backdoor attacks,evaluated across autoencoding and autoregressive models.Unlike prior studies,this work provides the first systematic comparison of perturbation-based,screening-based,and hybrid defenses in Transformer-based FL environments.Our results show that screening-based defenses consistently outperform perturbation-based ones,effectively neutralizing most attacks across architectures.However,this robustness comes with significant computational overhead,revealing a clear trade-off between security and efficiency.By explicitly identifying this trade-off,our study advances the understanding of defense strategies in federated learning and highlights the need for lightweight yet effective screening methods for trustworthy deployment in diverse application domains. 展开更多
关键词 backdoor attack federated learning transformer-based language model system robustness
在线阅读 下载PDF
Poison-Only and Targeted Backdoor Attack Against Visual Object Tracking
8
作者 GU Wei SHAO Shuo +2 位作者 ZHOU Lingtao QIN Zhan REN Kui 《ZTE Communications》 2025年第3期3-14,共12页
Visual object tracking(VOT),aiming to track a target object in a continuous video,is a fundamental and critical task in computer vision.However,the reliance on third-party resources(e.g.,dataset)for training poses con... Visual object tracking(VOT),aiming to track a target object in a continuous video,is a fundamental and critical task in computer vision.However,the reliance on third-party resources(e.g.,dataset)for training poses concealed threats to the security of VOT models.In this paper,we reveal that VOT models are vulnerable to a poison-only and targeted backdoor attack,where the adversary can achieve arbitrary tracking predictions by manipulating only part of the training data.Specifically,we first define and formulate three different variants of the targeted attacks:size-manipulation,trajectory-manipulation,and hybrid attacks.To implement these,we introduce Random Video Poisoning(RVP),a novel poison-only strategy that exploits temporal correlations within video data by poisoning entire video sequences.Extensive experiments demonstrate that RVP effectively injects controllable backdoors,enabling precise manipulation of tracking behavior upon trigger activation,while maintaining high performance on benign data,thus ensuring stealth.Our findings not only expose significant vulnerabilities but also highlight that the underlying principles could be adapted for beneficial uses,such as dataset watermarking for copyright protection. 展开更多
关键词 visual object tracking backdoor attack computer vision data security AI safety
在线阅读 下载PDF
基于剪枝与后门遗忘的深度神经网络后门移除方法
9
作者 李学相 高亚飞 +2 位作者 夏辉丽 王超 刘明林 《郑州大学学报(工学版)》 北大核心 2026年第2期27-34,共8页
后门攻击对深度神经网络的安全性构成了严重威胁。现有的大多数后门防御方法依赖部分原始训练数据来移除模型中的后门,但在数据访问受限这一现实场景中,这些方法在移除模型后门时的效果不佳,并且对模型的原始精度产生较大影响。针对上... 后门攻击对深度神经网络的安全性构成了严重威胁。现有的大多数后门防御方法依赖部分原始训练数据来移除模型中的后门,但在数据访问受限这一现实场景中,这些方法在移除模型后门时的效果不佳,并且对模型的原始精度产生较大影响。针对上述问题,提出了一种基于剪枝和后门遗忘的无数据后门移除方法(DBR-PU)。首先,用所提方法分析模型神经元在合成数据集上的预激活分布差异,以此来定位可疑神经元;其次,通过对这些可疑神经元进行剪枝操作来降低后门对模型的影响;最后,使用对抗性后门遗忘策略来进一步消除模型对少量残留后门信息的内部响应。在CIFAR10和GTSRB数据集上对6种主流后门攻击方法进行实验,结果表明:在数据访问受限的条件下,所提方法在准确率上可以与最优的基准防御方法保持较小差距,并且在降低攻击成功率方面表现最好。 展开更多
关键词 深度神经网络 后门攻击 后门防御 预激活分布 对抗性后门遗忘
在线阅读 下载PDF
图神经网络后门攻击与防御综述
10
作者 丁艳 丁红发 +1 位作者 喻沐然 蒋合领 《计算机科学》 北大核心 2026年第3期1-22,共22页
在人工智能技术驱动的智能信息系统中,图神经网络(GNN)因其强大的图结构建模能力,被广泛应用于社交网络分析和金融风控等关键场景的知识发现与决策支持。然而,此类系统高度依赖第三方数据与模型,使GNN面临隐蔽的后门攻击威胁。攻击者通... 在人工智能技术驱动的智能信息系统中,图神经网络(GNN)因其强大的图结构建模能力,被广泛应用于社交网络分析和金融风控等关键场景的知识发现与决策支持。然而,此类系统高度依赖第三方数据与模型,使GNN面临隐蔽的后门攻击威胁。攻击者通过注入后门触发器或篡改模型,可诱导系统对含特定模式的输入产生预设错误输出,进而破坏智能信息服务的可信性与可靠性。为保障智能信息系统的安全可控,从数据和模型两个层面对GNN后门攻击与防御研究进行了系统性综述。首先,深入分析了GNN在数据集收集、模型训练和部署阶段面临的后门攻击风险,构建了清晰的GNN后门攻防模型。其次,依据GNN后门攻击的实施阶段和攻击者能力,将后门攻击分为包含了6种面向数据的攻击和2种面向模型的攻击;依据防御实施阶段和防御者能力,将GNN后门防御方法分为面向数据、面向模型和面向鲁棒训练的防御;对各类方法的核心原理、技术特点进行了详细对比分析,阐释了其优缺点。最后,总结了当前研究面临的主要挑战,并展望了未来研究方向。提出的后门攻防模型和分类体系,有助于深入理解智能信息系统中的GNN后门安全威胁的本质及技术演进,推动下一代可信智能信息系统的安全设计与实践。 展开更多
关键词 图神经网络 后门攻击 后门防御 后门触发器 数据隐私与安全 智能信息系统
在线阅读 下载PDF
特征阻断的计算机视觉模型后门防御机制
11
作者 仝松松 杨奎武 +2 位作者 王雯 魏江宏 贺浩峰 《中国图象图形学报》 北大核心 2026年第3期755-768,共14页
目的后门攻击通过触发器—标签强关联已严重威胁计算机视觉模型的安全性。现有模型防御方案普遍依赖全模型微调或架构重构,面临计算资源消耗显著攀升、模型参数不可逆损伤以及部署灵活性受限等挑战。针对上述问题,面向图像分类模型提出... 目的后门攻击通过触发器—标签强关联已严重威胁计算机视觉模型的安全性。现有模型防御方案普遍依赖全模型微调或架构重构,面临计算资源消耗显著攀升、模型参数不可逆损伤以及部署灵活性受限等挑战。针对上述问题,面向图像分类模型提出一种基于特征阻断的轻量化后门防御机制,通过级联模块化设计,在无须任何攻击先验知识的前提下,仅需对原始模型嵌入轻量级阻断模块并进行定向微调,即可实现多场景后门特征的自适应阻断。方法设计级联特征阻断模块(包含跨通道空间过滤层、实例统计校准层、动态通道抑制层以及随机特征掩码层等),设计定向微调策略,在冻结原始模型参数的前提下,利用少量干净样本定向优化阻断模块参数,实现阻断模块对后门特征阻断与良性特征无损传递的双重目标,并通过PyTorch Hook机制实现模块的动态植入与无损移除。结果在MNIST(Modified National Institute of Standards and Technology)、CIFAR-10(Canadian Institute for Advanced Research)和MINI-ImageNet等3个数据集上,针对BadNets、Blended、WaNet、BppAttack和WaveAttack等5种典型后门攻击类型的对比实验表明:本文方法使攻击成功率平均下降90.0%,良性样本分类准确率损失小于3%,验证了防御机制的有效性和泛化能力。与主流模型防御方法相比,计算开销显著降低,阻断模块参数量不到原模型的1%;灵活部署性方面,支持运行时动态启停,移除后原始模型性能无损恢复。实验进一步验证了方法的架构普适性,在ResNet(residual network)和VGG-11(Visual Geometry Group)两种异构网络中,攻击成功率分别下降了90.0%和88.9%,表明防御机制具有跨模型鲁棒性。结论该机制通过轻量化模块化设计与微调机制,有效突破了传统模型防御方法在计算成本与灵活性层面的瓶颈问题,其即插即用与无损移除特性为实际场景中的模型安全部署提供了高效解决方案。 展开更多
关键词 模型安全 图像分类 后门防御 特征阻断 轻量化 动态启停
原文传递
基于奇异值空间对抗优化的动态后门攻击
12
作者 彭子铭 丁建伟 +1 位作者 姚佳旺 田华伟 《计算机科学与探索》 北大核心 2026年第2期510-521,共12页
深度学习模型凭借其卓越的性能已在众多领域得到广泛应用,但研究表明其对后门攻击也具有显著的脆弱性。后门攻击可通过隐蔽的触发机制破坏模型的可靠性,当预设的触发器激活隐藏后门时,模型将执行恶意行为。目前后门攻击主要依赖于空间... 深度学习模型凭借其卓越的性能已在众多领域得到广泛应用,但研究表明其对后门攻击也具有显著的脆弱性。后门攻击可通过隐蔽的触发机制破坏模型的可靠性,当预设的触发器激活隐藏后门时,模型将执行恶意行为。目前后门攻击主要依赖于空间域或频域的扰动触发模式,且多采用样本无关的静态触发器设置,使得防御系统能够相对容易地检测并消除威胁。为了解决现有攻击隐蔽性不足和鲁棒性较弱的问题,提出一种基于奇异值空间进行阶段性对抗优化的动态后门攻击方法。通过生成器生成具有样本特异性的触发器,利用奇异值分解(SVD)提取干净图像和触发器的主/次特征,将触发信息嵌入干净图像次特征中,保留主特征以维持后门隐蔽性。提出阶段性训练框架:第一阶段联合优化触发生成器与分类器,确保最大化后门攻击的有效性;第二阶段则用最优触发生成器继续训练后门模型。为了验证方法的隐蔽性与有效性,在多个经典数据集上测试了攻击方法。实验结果表明,该方法在四个数据集上都实现了比现有攻击方法更高的攻击成功率,且在良性样本上几乎没有导致准确率下降,并绕过了四种先进的后门防御方法。同时,实验还验证了深度模型对奇异值扰动的敏感性可被恶意利用,而现有的防御机制难以识别此类攻击,为AI模型揭示了新的安全隐患。 展开更多
关键词 后门攻击 阶段性对抗优化 奇异值分解 样本特异性 模型安全
在线阅读 下载PDF
基于频域的抗压缩隐蔽后门攻击
13
作者 闫雷鸣 翟强众 陈先意 《计算机工程与应用》 北大核心 2026年第7期291-301,共11页
智能模型的后门攻击可通过在训练数据中嵌入触发器的方式来毒化数据集,使模型在训练过程中被植入后门。然而,图像压缩算法的广泛应用显著削弱了数据投毒后门攻击的有效性。压缩处理会严重破坏中毒图像中触发器的特征,导致后门攻击的成... 智能模型的后门攻击可通过在训练数据中嵌入触发器的方式来毒化数据集,使模型在训练过程中被植入后门。然而,图像压缩算法的广泛应用显著削弱了数据投毒后门攻击的有效性。压缩处理会严重破坏中毒图像中触发器的特征,导致后门攻击的成功率急剧下降。针对这一问题,提出了一种基于频域的抗压缩隐蔽后门攻击方法。利用图像低频成分对压缩的天然抗性以及压缩中的亮度保真性,选择在Y通道的深层低频信息中嵌入后门触发器,以增强触发器的抗压缩能力。为进一步提升触发器的隐蔽性,设计了基于累积能量的分割机制,将触发器嵌入深层低频信息的低能量域中。在CIFAR-10、GTSRB和CIFAR-100数据集上,结合JPEG、JPEG2000和WEBP三种常用图像压缩算法进行了实验验证。结果表明,所提方法在抗压缩攻击中表现出较高的有效性、隐蔽性和鲁棒性。平均抗压缩攻击成功率分别达到95.71%、98.57%和95.02%,并且能有效抵抗主流防御技术的检测。 展开更多
关键词 后门攻击 模型安全 图像压缩
在线阅读 下载PDF
一种基于知识蒸馏的联邦学习后门攻击方法
14
作者 王亦帆 樊伟 +1 位作者 杨珂珂 李京 《计算机应用与软件》 北大核心 2026年第3期361-368,共8页
联邦学习去中心化的特点使其易在训练的过程中受到外界的攻击,比如后门攻击。现有的后门攻击方法所产生的模型更新通常会表现出一些异常的特征,一些研究中提出的联邦学习鲁棒聚合方法就利用了此特点来识别带有后门的本地模型。针对上述... 联邦学习去中心化的特点使其易在训练的过程中受到外界的攻击,比如后门攻击。现有的后门攻击方法所产生的模型更新通常会表现出一些异常的特征,一些研究中提出的联邦学习鲁棒聚合方法就利用了此特点来识别带有后门的本地模型。针对上述问题,提出将知识蒸馏应用于联邦学习后门攻击以减弱模型异常特征的方法。实验结果表明,所提出的方法在不同场景下均能成功向全局模型中添加后门。 展开更多
关键词 机器学习 联邦学习 知识蒸馏 后门攻击
在线阅读 下载PDF
基于特征调控与颜色分离的净标签多后门攻击方法
15
作者 唐迎春 黄荣 +1 位作者 周树波 蒋学芹 《计算机应用》 北大核心 2026年第1期124-134,共11页
针对传统的后门攻击缺乏隐蔽性与灵活性的问题,提出一种基于特征调控与颜色分离的净标签多后门攻击方法,以信息隐藏框架为基础,训练中毒网络嵌入触发器。首先,以图像边缘作为触发器,设计特征调控策略,结合对抗扰动与代理模型辅助训练中... 针对传统的后门攻击缺乏隐蔽性与灵活性的问题,提出一种基于特征调控与颜色分离的净标签多后门攻击方法,以信息隐藏框架为基础,训练中毒网络嵌入触发器。首先,以图像边缘作为触发器,设计特征调控策略,结合对抗扰动与代理模型辅助训练中毒网络,增强触发器特征的显著性;其次,提出颜色分离策略对触发器进行着色,赋予触发器可区分的RGB空间颜色并设置与颜色相对应的one-hot目标置信度引导训练,从而保证触发器特征的可区分性。为了验证所提方法的有效性,分别在3个数据集(CIFAR-10、ImageNet-10和GTSRB)上以及5种模型上进行实验。结果表明,在单后门场景下,所提方法的攻击成功率(ASR)在3个数据集上均超过98%,分别超过次优方法7.94、1.70和8.61个百分点;在多后门场景下,所提方法在ImageNet-10数据集上的ASR达到90%以上,平均ASR超过次优方法36.63个百分点。而消融实验的结果也验证了特征调控与颜色分离策略的合理性及对抗扰动与代理模型的贡献,多后门实验的结果展示了所提攻击方法的灵活性。 展开更多
关键词 后门攻击 净标签 特征调控 颜色分离 代理模型
在线阅读 下载PDF
微波参数对金属腔体强耦合覆盖率的影响研究
16
作者 曹垒 冯溪溪 +3 位作者 陈自东 戈弋 赵刚 赵景涛 《强激光与粒子束》 北大核心 2026年第1期73-81,共9页
针对精确评估目标高功率微波后门耦合效应困难的问题,以典型金属腔体为对象,提出“强耦合区域覆盖率”指标,采用时域有限差分法(FDTD)建立仿真模型,分析了高功率微波波形参数对后门耦合效应的影响。研究发现:腔体固有谐振频率下强耦合... 针对精确评估目标高功率微波后门耦合效应困难的问题,以典型金属腔体为对象,提出“强耦合区域覆盖率”指标,采用时域有限差分法(FDTD)建立仿真模型,分析了高功率微波波形参数对后门耦合效应的影响。研究发现:腔体固有谐振频率下强耦合覆盖率显著高于非谐振频率;脉冲宽度增至特定值时,谐振频率下覆盖率趋于稳定;极化角从水平向垂直变化时,覆盖率有显著变化;叠加不同谐振频率可填补非强耦合区域空白,进一步提高覆盖率;脉冲前沿对覆盖率影响较小。该研究可为高功率微波后门耦合效应机理及参数优化提供关键技术支撑。 展开更多
关键词 强耦合区域覆盖率 金属腔体 时域有限差分法 高功率微波参数 后门耦合效应
在线阅读 下载PDF
分离触发器和多重对比的数据浓缩后门攻击
17
作者 蒋桂政 黄荣 +1 位作者 刘浩 蒋学芹 《中国图象图形学报》 北大核心 2026年第1期177-196,共20页
目的现有数据浓缩后门攻击方法将含有触发器的中毒样本和干净样本浓缩为小的数据集,中毒数据中真实数据的强信号掩盖触发器的弱信号,并且未考虑将非目标类浓缩数据与中毒数据特征分离,非目标类浓缩数据残留触发器特征。因此,提出分离触... 目的现有数据浓缩后门攻击方法将含有触发器的中毒样本和干净样本浓缩为小的数据集,中毒数据中真实数据的强信号掩盖触发器的弱信号,并且未考虑将非目标类浓缩数据与中毒数据特征分离,非目标类浓缩数据残留触发器特征。因此,提出分离触发器和多重对比的数据浓缩后门攻击。方法首先将触发器与真实数据进行分离。分离的触发器作为样本与真实数据并行嵌入浓缩数据,减少真实数据对触发器的干扰。然后,对分离的触发器进行优化,将触发器接近目标类真实数据的特征,提高触发器的嵌入效果,同时对触发器进行了分区放大预处理来增加触发器像素的数量,使其在优化过程获取大量的梯度用于指导学习。在数据浓缩阶段,通过多重对比将目标类浓缩数据与触发器特征投影在同一空间,将非目标类浓缩数据与触发器特征分离,进一步提高后门攻击的成功率。结果为了验证所提出方法的有效性,将所提出方法在FashionMNIST(Fashion Modified National Institute of Standards and Technology database)、CIFAR10(Canadian Institute for Advances Research’s ten categories dataset)、STL10(Stanford letter-10)、SVHN(street view house numbers)与其他4种方法进行对比实验。所提出的方法在5个数据集和6个不同的模型上均达到100%的攻击成功率,同时未降低干净样本在模型上的准确率。结论所提出的方法通过解决现有方法存在的问题,实现了性能的显著提高。本文方法具体代码见:https://github.com/tfuy/STMC。 展开更多
关键词 后门攻击 数据浓缩 分离 梯度匹配 分区放大预处理 最大化
原文传递
基于自监督学习与数据集分割的后门防御方法
18
作者 何子晟 凌捷 《计算机应用研究》 北大核心 2026年第1期256-262,共7页
针对深度神经网络(DNNs)在图像分类任务中易受后门攻击、现有防御方法难以兼顾模型准确率与鲁棒性的问题,提出一种名为SAS(self-supervised adaptive splitting)的基于自监督预训练与动态数据集分割的半监督后门防御方法。该方法首先引... 针对深度神经网络(DNNs)在图像分类任务中易受后门攻击、现有防御方法难以兼顾模型准确率与鲁棒性的问题,提出一种名为SAS(self-supervised adaptive splitting)的基于自监督预训练与动态数据集分割的半监督后门防御方法。该方法首先引入一致性正则化的对比学习框架进行自监督训练,解耦图像特征与后门模式;随后的微调阶段基于动态数据筛选与半监督学习策略,在训练中筛选并分别利用高可信度和低可信度数据,抑制后门植入。在CIFAR-10和GTSRB两种数据集上,针对BadNets、Blend、WaNet和Refool四种攻击的实验表明,该方法相较ASD方法,在两种数据集的干净数据上的分类准确率分别平均提升了1.65和0.65个百分点;污染数据的后门攻击成功率均降低到1.4%以下。研究证实,该方法通过解耦特征与动态数据集分割的协同作用,能有效提升模型的后门防御能力,同时保持在干净数据上的高分类性能,为构建安全可靠的深度学习模型提供了有效的途径。 展开更多
关键词 深度学习 后门防御 半监督学习 图像分类 自监督学习
在线阅读 下载PDF
基于语态后门水印的地理问答数据集版权保护
19
作者 陈玮彤 许鑫 +3 位作者 王曙 杨飞 诸云强 赵晨 《地球信息科学学报》 北大核心 2026年第3期623-635,共13页
【目的】高质量地理问答数据集是地理大语言模型训练与微调的重要基础资源。在实际应用中,数据集一旦被非版权方用于私有模型微调,侵权方往往仅开放模型接口用于商业化服务,从而规避对原始数据来源的审计与追溯。针对这一问题,本文提出... 【目的】高质量地理问答数据集是地理大语言模型训练与微调的重要基础资源。在实际应用中,数据集一旦被非版权方用于私有模型微调,侵权方往往仅开放模型接口用于商业化服务,从而规避对原始数据来源的审计与追溯。针对这一问题,本文提出了一种基于语态后门水印的地理问答数据集版权保护方法。【方法】首先通过微调代理模型的方式,构造获得将部分问答响应改写为具有积极语态特征且语义保持一致的水印响应。随后,在问题文本中嵌入语义自然且低频出现的触发器词汇,构建含水印的地理问答数据集。在版权验证阶段,仅通过黑盒访问嫌疑模型的推理接口,并结合预训练的水印判别器,根据判别器输出的语态特征判定其是否使用了版权方的数据集。【结果】在DeepSeek-Coder、Qwen3和Llama-3共3个主流开源大语言模型上的实验结果表明,在20%水印嵌入率条件下,水印模型在语义一致性和语言流畅性指标上与干净模型基本一致,且水印验证成功率可稳定达到78%以上。此外,在Llama-3模型上的对比实验结果表明,本文方法在中文地理问答数据集上可实现86.75%的水印验证成功率,而对比方法在该场景下难以获得有效的水印检测结果;在Qwen3模型上的鲁棒性实验表明,在30%干净数据子集进行两轮微调后,仍能保持70.21%的水印验证成功率。【结论】该方法供了一种在不访问原始数据集、仅依赖黑盒模型接口条件下的黑盒版权验证解决方案,为地理问答数据集的版权保护提供有效技术支撑。 展开更多
关键词 地理问答数据集 版权保护 后门水印 水印响应 水印触发器 水印问答对 水印判别器
原文传递
基于变分自编码器触发器逆向的后门检测方法
20
作者 古津榜 洪征 +3 位作者 秦素娟 赵敏 陈乾 江川 《计算机工程与应用》 北大核心 2026年第2期245-256,共12页
针对现有触发器逆向方法难以检测出复杂后门攻击的问题,提出一种基于变分自编码器(VAE)触发器逆向的后门检测方法。使用变分自编码器作为空间变换函数,变分自编码器可以泛化出不同形式的触发器,干净样本经过变分自编码器处理后,被嵌入... 针对现有触发器逆向方法难以检测出复杂后门攻击的问题,提出一种基于变分自编码器(VAE)触发器逆向的后门检测方法。使用变分自编码器作为空间变换函数,变分自编码器可以泛化出不同形式的触发器,干净样本经过变分自编码器处理后,被嵌入触发器得到逆向样本。后门攻击具有隐蔽的特点,能够实施后门攻击的逆向样本往往需要与干净样本保持结构相似性,基于此特点选择满足隐蔽性要求的逆向样本。后门往往需要学习触发器特征,与指定的类别建立强联系。采用余弦相似性衡量逆向样本与干净样本的特征值之间的关系,来确定可能存在后门的逆向样本。在此基础上,应用L1范式约束优化触发器,使触发器在保持有效性的同时最小化L1范数以减小触发器对干净样本造成的影响,进而依据逆向样本与特定类别的强联系进行后门检测。实验结果表明,该方法可以有效识别不同特征空间中的复杂后门攻击。 展开更多
关键词 神经网络安全 后门攻击 触发器逆向 触发器 后门攻击检测
在线阅读 下载PDF
上一页 1 2 16 下一页 到第
使用帮助 返回顶部