期刊文献+
共找到129篇文章
< 1 2 7 >
每页显示 20 50 100
AdvYOLO:An Improved Cross-Conv-Block Feature Fusion-Based YOLO Network for Transferable Adversarial Attacks on ORSIs Object Detection
1
作者 Leyu Dai Jindong Wang +2 位作者 Ming Zhou Song Guo Hengwei Zhang 《Computers, Materials & Continua》 2026年第4期767-792,共26页
In recent years,with the rapid advancement of artificial intelligence,object detection algorithms have made significant strides in accuracy and computational efficiency.Notably,research and applications of Anchor-Free... In recent years,with the rapid advancement of artificial intelligence,object detection algorithms have made significant strides in accuracy and computational efficiency.Notably,research and applications of Anchor-Free models have opened new avenues for real-time target detection in optical remote sensing images(ORSIs).However,in the realmof adversarial attacks,developing adversarial techniques tailored to Anchor-Freemodels remains challenging.Adversarial examples generated based on Anchor-Based models often exhibit poor transferability to these new model architectures.Furthermore,the growing diversity of Anchor-Free models poses additional hurdles to achieving robust transferability of adversarial attacks.This study presents an improved cross-conv-block feature fusion You Only Look Once(YOLO)architecture,meticulously engineered to facilitate the extraction ofmore comprehensive semantic features during the backpropagation process.To address the asymmetry between densely distributed objects in ORSIs and the corresponding detector outputs,a novel dense bounding box attack strategy is proposed.This approach leverages dense target bounding boxes loss in the calculation of adversarial loss functions.Furthermore,by integrating translation-invariant(TI)and momentum-iteration(MI)adversarial methodologies,the proposed framework significantly improves the transferability of adversarial attacks.Experimental results demonstrate that our method achieves superior adversarial attack performance,with adversarial transferability rates(ATR)of 67.53%on the NWPU VHR-10 dataset and 90.71%on the HRSC2016 dataset.Compared to ensemble adversarial attack and cascaded adversarial attack approaches,our method generates adversarial examples in an average of 0.64 s,representing an approximately 14.5%improvement in efficiency under equivalent conditions. 展开更多
关键词 Remote sensing object detection transferable adversarial attack feature fusion cross-conv-block
在线阅读 下载PDF
自适应约束上界的对抗攻击优化方法
2
作者 周强 李哲 +1 位作者 陶蔚 陶卿 《计算机科学》 北大核心 2026年第1期404-412,共9页
深度神经网络易受对抗样本攻击。现有迁移攻击优化方法普遍使用固定的约束上界表示不可察觉性强度,重点关注如何提升攻击成功率,忽略了样本间的敏感性差异,导致不可察觉性(FID)效果有待提高。受自适应梯度方法的启发,以提高不可察觉性... 深度神经网络易受对抗样本攻击。现有迁移攻击优化方法普遍使用固定的约束上界表示不可察觉性强度,重点关注如何提升攻击成功率,忽略了样本间的敏感性差异,导致不可察觉性(FID)效果有待提高。受自适应梯度方法的启发,以提高不可察觉性为主要目的,提出了一种自适应约束上界的对抗攻击优化方法。首先,通过梯度幅值建立敏感性指标,量化不同样本的敏感性差异程度;在此基础上,自适应确定对抗攻击优化方法的约束上界,实现敏感样本低强度、非敏感样本高强度对抗扰动的差异化处理;最后,通过替换投影算子和步长,将自适应约束机制无缝集成至现有攻击方法。ImageNet-Compatible数据集上的实验表明,所提方法在相同的黑盒攻击成功率下,FID较传统固定约束方法降低2.68%~3.49%;基于该方法的MI-LA对抗攻击算法较对抗攻击领域表现优异的5种攻击方法,FID降低6.32%~26.35%。 展开更多
关键词 对抗攻击 自适应 约束上界 样本敏感性 黑盒迁移性 不可察觉性
在线阅读 下载PDF
针对SAM下游模型脆弱模块的对抗迁移攻击
3
作者 丁熠 林能健 +2 位作者 蒋昀陶 钟宇浩 曹明生 《计算机研究与发展》 北大核心 2025年第10期2455-2467,共13页
SAM(segment anything model)作为一种通用的视觉基础模型,已被广泛应用于多种图像分割任务,但其在对抗性攻击面前表现出脆弱性.提出一种针对SAM下游模型脆弱模块的对抗迁移攻击方法FSGR(fragile section gradient robustness).该方法... SAM(segment anything model)作为一种通用的视觉基础模型,已被广泛应用于多种图像分割任务,但其在对抗性攻击面前表现出脆弱性.提出一种针对SAM下游模型脆弱模块的对抗迁移攻击方法FSGR(fragile section gradient robustness).该方法在无需知晓下游微调细节的前提下,可有效生成对抗样本,实现对SAM下游模型的攻击.该方法运用“脆弱层精准定位+局部强化迁移”策略,通过特征相似度筛选出跨任务共享且最易被激活的模块,针对性地强化攻击效果;同时,引入梯度稳健损失以消除目标模型与下游任务模型间的梯度差异. FSGR方法融合了脆弱层攻击与梯度稳健损失机制,在多个数据集上均实现了相对性能的提升.实验结果表明,FSGR在多种微调模型(如医学分割、阴影分割和伪装分割)的迁移攻击中显著降低了模型性能,证明了其正确性和实用性.与基线方法相比,FSGR不仅在攻击成功率上表现出色,还通过结合脆弱层攻击和梯度稳健损失,实现了相对性能的提升. 展开更多
关键词 图像分割 对抗攻击 迁移攻击 特征相似度 模型鲁棒性
在线阅读 下载PDF
通过可迁移性差距提升对抗可迁移性
4
作者 王金伟 王海桦 +2 位作者 吴昊 罗向阳 马宾 《应用科学学报》 北大核心 2025年第5期799-807,共9页
现有的迁移攻击仅聚焦于经验风险的最大化,未考虑到迁移攻击的期望风险,从而导致迁移性不足,为此本文提出了一种基于可迁移性差距的迁移攻击。将迁移攻击的目标定义为一种期望风险的形式,并进一步定义了可迁移性差距,用来衡量迁移攻击... 现有的迁移攻击仅聚焦于经验风险的最大化,未考虑到迁移攻击的期望风险,从而导致迁移性不足,为此本文提出了一种基于可迁移性差距的迁移攻击。将迁移攻击的目标定义为一种期望风险的形式,并进一步定义了可迁移性差距,用来衡量迁移攻击的经验风险和期望风险之间的绝对误差。可以发现,当可迁移性差距较小时,最大化经验风险近似等价于最大化期望风险,从而获得可迁移的对抗样本。所提方案在最大化经验风险的同时,引入对抗机制,在最小化和最大化可迁移性差距之间寻求平衡。这种对抗思想使得该方案能够在最难迁移的情况下寻找到迁移能力最强的攻击算法,因此保证了对抗样本的高度可迁移性。实验结果表明,所提方案的性能优于最新的一些迁移攻击,可实现高可迁移性的对抗样本快速生成。 展开更多
关键词 对抗攻击 可迁移性 期望风险 可迁移性差距
在线阅读 下载PDF
基于NadaMax更新与动态正则化的对抗样本迁移性增强方法
5
作者 宋亚飞 仇文博 +1 位作者 王艺菲 冯存前 《空军工程大学学报》 北大核心 2025年第3期119-127,共9页
针对深度学习模型中对抗样本迁移性和黑盒攻击能力不足的问题,研究设计了一种基于NadaMax优化器的迭代快速梯度方法(NM-FGSM)。该方法结合了Nesterov加速梯度和Adamax优化器的优势,通过自适应学习率和前瞻动量向量提高梯度更新精确度,... 针对深度学习模型中对抗样本迁移性和黑盒攻击能力不足的问题,研究设计了一种基于NadaMax优化器的迭代快速梯度方法(NM-FGSM)。该方法结合了Nesterov加速梯度和Adamax优化器的优势,通过自适应学习率和前瞻动量向量提高梯度更新精确度,并引入动态正则化增强问题凸性,优化算法稳定性和针对性。实验结果表明,NM-FGSM在不同攻击策略下优于现有方法,尤其在先进防御场景中攻击成功率提高了4%~8%。通过动态正则化的损失函数,对抗样本的跨模型迁移能力得到提升,进一步增强了黑盒攻击效果。最后,讨论了未来优化NM-FGSM算法和设计防御措施的研究方向,为深度学习模型的安全性研究提供了新的思路。 展开更多
关键词 迁移性 黑盒攻击 NadaMax优化器 动量 自适应学习率 动态正则化
在线阅读 下载PDF
联邦学习中的安全、隐私及攻防迁移技术研究
6
作者 平源 张云航 +3 位作者 吴文红 潘志豪 康雯婷 刘宇建 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第6期940-953,共14页
在数据隐私问题日益突出的背景下,联邦学习作为一种新型分布式机器学习技术,通过本地化数据处理和仅共享模型参数,降低了隐私泄露的风险。尽管其设计初衷是为了保护用户隐私,联邦学习本身仍面临一系列安全和隐私方面的挑战。回顾了联邦... 在数据隐私问题日益突出的背景下,联邦学习作为一种新型分布式机器学习技术,通过本地化数据处理和仅共享模型参数,降低了隐私泄露的风险。尽管其设计初衷是为了保护用户隐私,联邦学习本身仍面临一系列安全和隐私方面的挑战。回顾了联邦学习在安全性和隐私保护方面的最新研究进展,涵盖了其架构、常见攻击类型及防御策略。阐述了联邦学习的基本框架,并分析了常见的安全挑战,如数据中毒、模型中毒和拜占庭攻击等。讨论了隐私保护机制及其算法实现,评估其在提升安全性和隐私性方面的有效性,还发现某些攻击与防御技术之间存在潜在的转化利用关系,为攻防迁移研究提供了新思路。展望了联邦学习未来的发展方向,指出隐私保护算法优化、构建适应性强的隐私框架,以及推动隐私保护技术与多样化实际应用场景的深度融合,将成为推动联邦学习落地应用的关键挑战与发展机遇。 展开更多
关键词 联邦学习 安全攻击 隐私保护 防御策略 攻防迁移
在线阅读 下载PDF
基于GAN的无数据黑盒对抗攻击方法 被引量:3
7
作者 赵恩浩 凌捷 《计算机工程与应用》 北大核心 2025年第7期204-212,共9页
对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗... 对抗样本能够使深度神经网络以高置信度输出错误的结果。在黑盒攻击中,现有的替代模型训练方法需要目标模型全部或部分训练数据才能取得较好的攻击效果,但实际应用中目标模型的训练数据难以获取。因此,提出一种基于GAN的无数据黑盒对抗攻击方法。无需目标模型的训练数据,使用混合标签信息的噪声生成替代模型所需的训练样本,通过目标模型的标记信息以及多样化损失函数使训练样本分布均匀且包含更多特征信息,进而使替代模型高效学习目标模型的分类功能。对比DaST和MAZE,该方法在降低35%~60%的对抗扰动和查询次数的同时对CIFAR-100、CIFAR-10、SVHN、FMNIST、MNIST五个数据集的FGSM、BIM、PGD三种攻击的成功率平均提高6~10个百分点,并且在实际应用中的黑盒模型场景Microsoft Azure取得78%以上的攻击成功率。 展开更多
关键词 黑盒对抗攻击 生成对抗网络 替代训练 迁移攻击 深度神经网络
在线阅读 下载PDF
针对音频分类的跨表征可迁移对抗样本生成方法 被引量:1
8
作者 田梓琳 龙云飞 +1 位作者 田野 张立国 《网络与信息安全学报》 2025年第2期125-135,共11页
对抗样本是检测深度神经网络漏洞的重要手段。可迁移性是对抗样本的一种特有属性,赋予其欺骗未知深度神经网络模型的能力。针对音频分类任务的迁移攻击方法引起了广泛讨论。然而,现有的针对音频分类的攻击方法大多数只考虑单一的音频表... 对抗样本是检测深度神经网络漏洞的重要手段。可迁移性是对抗样本的一种特有属性,赋予其欺骗未知深度神经网络模型的能力。针对音频分类任务的迁移攻击方法引起了广泛讨论。然而,现有的针对音频分类的攻击方法大多数只考虑单一的音频表征,忽略了音频对抗样本从一维时域波形到二维梅尔谱图的可迁移性。以波形分类模型作为替代模型生成的对抗样本无法成功攻击以梅尔谱图作为输入的模型。针对这一问题,提出针对音频分类的跨表征可迁移对抗样本生成方法,通过线性组合两个以不同表征为输入的替代模型的损失训练生成网络,使其能够生成具有跨表征和跨模型可迁移性的音频对抗样本。同时,通过减少两个替代模型之间的预测差异,进一步增强对抗样本跨表征可迁移性。此外,利用生成网络输出对抗性的训练替代模型,同步优化替代模型鲁棒性来提高对抗样本的跨模型可迁移性。在UrbanSound8k和ShipsEar数据集上的大量实验结果表明,所提方法可以提高对抗样本的跨表征可迁移性,并显著优于现有的迁移攻击。 展开更多
关键词 对抗样本 迁移攻击 音频分类攻击 跨表征
在线阅读 下载PDF
基于视觉特征解耦的无数据依赖模型窃取攻击方法
9
作者 张锦弘 刘仁阳 +2 位作者 韦廷楚 董云云 周维 《软件学报》 北大核心 2025年第10期4812-4826,共15页
随着深度学习模型安全性和隐私性研究的不断深入,研究者发现模型窃取攻击能够对神经网络产生极大的威胁.典型的数据依赖模型窃取攻击可以利用一定比例的真实数据查询目标模型,在本地训练一个替代模型,从而达到目标模型窃取的目的.2020... 随着深度学习模型安全性和隐私性研究的不断深入,研究者发现模型窃取攻击能够对神经网络产生极大的威胁.典型的数据依赖模型窃取攻击可以利用一定比例的真实数据查询目标模型,在本地训练一个替代模型,从而达到目标模型窃取的目的.2020年以来,一种新颖的无数据依赖模型窃取攻击方法被提出,仅使用生成模型生成伪造的查询样本便能对深度神经网络开展窃取和攻击.由于不依赖于真实数据,无数据依赖模型窃取攻击具有更严重的破坏力.然而,目前的无数据依赖模型窃取攻击方法所构造查询样本的多样性和有效性不足,存在模型窃取过程中查询次数大、攻击成功率较低的问题.因此提出一种基于视觉特征解耦的无数据依赖模型窃取攻击方法VFDA (vision feature decoupling-based model stealing attack),该方法通过利用多解码器结构对无数据依赖模型窃取过程中生成的查询样本的视觉特征进行解耦与生成,从而提高查询样本的多样性和模型窃取的有效性.具体来说,VFDA利用3个解码器分别生成查询样本的纹理信息、区域编码和平滑信息,完成查询样本的视觉特征解耦.其次,为了使生成的查询样本更加符合真实样本的视觉特征,通过限制纹理信息的稀疏性以及对生成的平滑信息进行滤波.VFDA利用了神经网络的表征倾向依赖于图像纹理特征的性质,能够生成类间多样性的查询样本,从而有效提高了模型窃取的相似性以及攻击成功率.此外,VFDA对解耦生成的查询样本平滑信息添加了类内多样性损失,使查询样本更加符合真实样本的分布.通过与多个模型窃取攻击方法对比,VFDA方法在模型窃取的相似性以及攻击的成功率上具有更好的表现.特别在分辨率较高的GTSRB和Tiny-ImageNet数据集上,相比于目前较好的EBFA方法,在攻击成功率上VFDA方法平均提高了3.86%和4.15%. 展开更多
关键词 模型窃取 对抗样本 迁移攻击 生成模型 模型隐私
在线阅读 下载PDF
Aurora-A过表达通过激活NF-κBp65/ARPC4信号轴促进宫颈癌细胞的侵袭和转移
10
作者 岳雅清 牟召霞 +1 位作者 王希波 刘艳 《南方医科大学学报》 北大核心 2025年第4期837-843,共7页
目的探索敲低肌动蛋白相关蛋白2/3复合体亚基4(ARPC4)对Aurora-A过表达诱导的宫颈癌细胞增殖、迁移、侵袭及上皮间质转化的影响以及Aurora-A表达调控ARPC4的分子机制。方法将pCDH-NC、pCDH-Aurora-A、pCDH-Aurora-A+shRNA-ARPC4、pCDH-A... 目的探索敲低肌动蛋白相关蛋白2/3复合体亚基4(ARPC4)对Aurora-A过表达诱导的宫颈癌细胞增殖、迁移、侵袭及上皮间质转化的影响以及Aurora-A表达调控ARPC4的分子机制。方法将pCDH-NC、pCDH-Aurora-A、pCDH-Aurora-A+shRNA-ARPC4、pCDH-Aurora-A质粒转染至Hela细胞中,并在第4组细胞中加入NF-κBp65抑制剂,RT-PCR检测转染效率。根据Aurora-A、ARPC4的表达情况及NF-κBp65通路的抑制状态将其分为4组:Vector组、Aurora-A过表达质粒组、Aurora-A过表达+ARPC4敲降组、Aurora-A过表达+NF-κBp65抑制剂组。EDU免疫荧光检测Hela细胞增殖情况;结晶紫染色检测Hela细胞细胞集落形成情况;划痕实验和Transwell实验分别检测Hela细胞迁移情况;Transwell基质胶检测Hela细胞侵袭情况;Western blotting检测Hela细胞上皮间充质化(EMT)情况、NF-κBp65及ARPC4的表达。结果Aurora-A敲低的细胞中ARPC4表达下降,Aurora-A过表达的细胞中ARPC4表达上升(P<0.05)。过表达Aurora-A的宫颈癌细胞增殖、迁移及侵袭能力增强,而敲低ARPC4拮抗其作用(P<0.05)。Aurora-A过表达组NF-κBp65磷酸化水平增加,ARPC4表达水平增加(P<0.05)。Aurora-A可直接与NF-κBp65相互作用。与Aurora-A过表达组相比,Aurora-A过表达+NF-κBp65抑制剂组ARPC4表达下降(P<0.05)。结论Aurora-A通过激活NF-κBp65信号通路上调ARPC4表达,促进宫颈癌细胞的迁移、侵袭和上皮间充质化的过程。 展开更多
关键词 宫颈癌 AURORA-A 肌动蛋白相关蛋白2/3复合体亚基4 增殖 侵袭 转移
暂未订购
基于基因重组知识蒸馏策略的对抗攻击方法
11
作者 刘明林 周传金 +2 位作者 王润泽 王超 曹仰杰 《郑州大学学报(工学版)》 北大核心 2025年第6期40-48,共9页
针对传统集成攻击方法存在因计算资源(包括训练数据和训练时间)需求高而在应用中受限制的问题,提出了一种基于基因重组的低计算复杂度集成攻击方法,通过生成更多样的集成模型来增强现有对抗攻击的迁移性。首先,将基因重组思想引入知识... 针对传统集成攻击方法存在因计算资源(包括训练数据和训练时间)需求高而在应用中受限制的问题,提出了一种基于基因重组的低计算复杂度集成攻击方法,通过生成更多样的集成模型来增强现有对抗攻击的迁移性。首先,将基因重组思想引入知识蒸馏领域,在此过程中,学生模型被视为独立个体,其参数被看作该个体的基因,每一轮的蒸馏学习视为基因的一次进化;其次,通过在进化过程中随机交换学生模型的参数,实现了人为的基因重组,从而获得更优的后代基因,通过设置不同的蒸馏温度,能够获得多个多样化的学生模型;再次,将这些多样化的学生模型与源教师模型进行集成;最后,使用集成模型生成迁移性更强的对抗样本。在ImageNet验证集子集上的实验结果表明:相较于其他算法,所提方法显著提高了对抗样本的迁移性。以ResNet152作为源模型并采用PGD攻击为例,所提方法在11种黑盒模型上的迁移攻击成功率表现最优,比基线PGD方法平均提高了34.52百分点,比PGI方法平均提高了5.30百分点,比DGM方法平均提高了2.12百分点。 展开更多
关键词 集成攻击 对抗样本 迁移性 基因重组 知识蒸馏
在线阅读 下载PDF
基于特征融合的对抗样本定向目标攻击可迁移性增强
12
作者 凌海 凌捷 《计算机工程》 北大核心 2025年第11期162-170,共9页
对抗样本可以在不知道黑盒模型内部的结构以及参数时利用代理模型进行迁移性攻击,现有研究针对黑盒模型的定向目标攻击可迁移性都比较弱。提出一种基于特征融合增强图像定向目标攻击可迁移性的方法。通过模型集成攻击得到对抗样本,以现... 对抗样本可以在不知道黑盒模型内部的结构以及参数时利用代理模型进行迁移性攻击,现有研究针对黑盒模型的定向目标攻击可迁移性都比较弱。提出一种基于特征融合增强图像定向目标攻击可迁移性的方法。通过模型集成攻击得到对抗样本,以现有对抗样本的梯度方向为基准,利用从原图提取出的干净特征作为干扰来微调现有的对抗样本,以提高定向目标攻击的可迁移性。对于模型集成,根据每个模型对整体对抗目标的贡献大小引入梯度自适应模块,为减少不同模型之间的梯度差异,提出梯度滤波器来同步控制梯度方向,通过特征融合模块混合原图的干净特征对现有对抗样本的梯度方向进行微调以缓解过度关注特定特征的问题。在ImageNet-Compatible数据集上的对比实验结果表明,所提方法对非鲁棒性训练模型,相较CFM(Clean Feature Mixup)方法平均攻击成功率提升了7.7百分点,对鲁棒性训练模型以及Tansformer模型,相较CFM方法平均攻击成功率提升了5.3百分点,验证了方法的有效性。 展开更多
关键词 深度学习 对抗攻击 对抗样本 定向目标攻击 可迁移性
在线阅读 下载PDF
基于敏感区域的双掩码集合对抗攻击研究
13
作者 闫振豪 张晓琳 王永平 《内蒙古科技大学学报》 2025年第1期92-96,共5页
在黑盒场景下,现有集合攻击方法的迁移性能有限,大多数方法对整个图像添加扰动,容易破坏平滑背景,降低对抗样本的不可感知性。针对迁移性与不可感知性难以兼顾的问题,提出了一种基于敏感区域的双掩码集合对抗攻击方法。该方法通过融合... 在黑盒场景下,现有集合攻击方法的迁移性能有限,大多数方法对整个图像添加扰动,容易破坏平滑背景,降低对抗样本的不可感知性。针对迁移性与不可感知性难以兼顾的问题,提出了一种基于敏感区域的双掩码集合对抗攻击方法。该方法通过融合集合中每个代理模型的敏感区域,并利用硬掩码限制扰动区域。这种局部攻击策略减少了对平滑背景的修改,提高了对抗样本的不可感知性。同时,设计了特征正则化模块,利用软掩码筛选攻击特征,避免攻击陷入局部最优,提高了对抗样本的迁移性。在不同数据集上的实验结果表明,所提方法生成的对抗样本在黑盒模型中的攻击效果和不可感知性优于现有的集合攻击方法。 展开更多
关键词 对抗样本 集合攻击 局部攻击 迁移性 不可感知性
在线阅读 下载PDF
基于相关子域适应的跨设备建模侧信道攻击
14
作者 张裕鹏 刘恒星 +2 位作者 李迪 段明 龚征 《密码学报(中英文)》 北大核心 2025年第2期443-456,共14页
基于深度学习的建模侧信道攻击使用从建模设备训练得到的模型攻击目标设备.研究者发现建模设备与目标设备的不一致会导致模型在攻击目标设备时失效,这类问题称为可移植性问题.在CHES 2021中,Cao等人提出利用无标签信息的目标设备轨迹信... 基于深度学习的建模侧信道攻击使用从建模设备训练得到的模型攻击目标设备.研究者发现建模设备与目标设备的不一致会导致模型在攻击目标设备时失效,这类问题称为可移植性问题.在CHES 2021中,Cao等人提出利用无标签信息的目标设备轨迹信息和域适应迁移技术解决可移植性问题,并在XMEGA、XMEGA-EM等数据集上取得了一定的成效.2022年DAC年会上,Cao等人进一步提出以域对抗迁移技术为基础的跨设备建模攻击方案.本文在此基础上,提出一种基于相关子域适应迁移技术的跨设备建模侧信道攻击方案SD-PA.相较于之前的工作,SD-PA在迁移过程中更加关注轨迹与对应类别之间的细粒度关系,并基于子域分布之间的最大均值差异距离微调预训练模型.SD-PA具有损失收敛快和能使模型适应目标设备分布的特点.SD-PA在攻击设备不同场景下的XMEGA数据集时,成功恢复密钥所需的最少目标设备轨迹条数从原来的29条降低到24条.在攻击采集设置不同的XMEGA-EM数据集时,对应的轨迹条数从原来的77条降低到47条. 展开更多
关键词 跨设备建模攻击 迁移学习 侧信道攻击 深度学习
在线阅读 下载PDF
基于替代模型的黑盒迁移攻击方法
15
作者 曾繁茂 方贤进 《重庆工商大学学报(自然科学版)》 2025年第3期70-76,共7页
目的针对现有基于生成对抗网络的无数据黑盒攻击方法容易出现收敛缓慢和代价高昂的问题,提出一种新颖的黑盒迁移攻击方法。方法分为两个阶段:训练数据合成与替代模型蒸馏。在训练数据合成阶段,通过优化生成器以最大化替代模型与目标模... 目的针对现有基于生成对抗网络的无数据黑盒攻击方法容易出现收敛缓慢和代价高昂的问题,提出一种新颖的黑盒迁移攻击方法。方法分为两个阶段:训练数据合成与替代模型蒸馏。在训练数据合成阶段,通过优化生成器以最大化替代模型与目标模型输出的一致性,同时引入2种损失函数来约束生成器产生的数据分布;在替代模型蒸馏阶段,采用具有可学习参数的残差块设计替代模型,并利用生成器合成的数据来拟合目标模型的决策边界。通过交替进行这两个阶段的训练,替代模型可以更好地拟合目标模型的决策边界,进而提升攻击效果。结果通过系列实验验证,针对目标模型的无目标黑盒攻击成功率可以达到70%以上;在CIFAR100数据集上,该方法相较于其他黑盒攻击方法,有目标攻击成功率提高了2%以上,且在实现相同攻击效果时,所需查询预算更低。结论所提方法能够高效拟合目标模型的决策边界,具有较好的攻击效果。 展开更多
关键词 对抗样本 黑盒攻击 迁移攻击 替代模型蒸馏
在线阅读 下载PDF
黑盒条件下生成式对抗攻击方法研究
16
作者 张兆阳 孙芳慧 +5 位作者 张明旭 宋伟 王振邦 王英琦 张可卿 王莘 《信息对抗技术》 2025年第5期1-21,共21页
在进行图像对抗攻击时,针对目标模型进行的白盒攻击往往效果最佳,但实际中通常难以获取目标模型结构,这使得提高对抗样本的迁移性尤为关键。针对这一问题,提出一种基于生成对抗网络(generative adversarial network,GAN)的训练方法,用... 在进行图像对抗攻击时,针对目标模型进行的白盒攻击往往效果最佳,但实际中通常难以获取目标模型结构,这使得提高对抗样本的迁移性尤为关键。针对这一问题,提出一种基于生成对抗网络(generative adversarial network,GAN)的训练方法,用以生成具备强迁移性的对抗样本。研究发现,图像本身具有与模型无关的脆弱性,生成式方法正是通过挖掘这一特性进行攻击的。与传统方法在原图邻域内微调不同,该方法从其他类别分布中生成具有最大似然的图像,在视觉上接近真实图像,但能有效误导分类器。训练过程中,生成器生成对抗样本,判别器判断其标签的正确性,二者协同优化,不断提升样本的攻击性与真实度。实验表明,生成式对抗样本在多个模型上的攻击成功率显著高于传统方法,平均提升约25%,展现出更强的跨模型泛化能力。该结果表明生成式对抗攻击不仅提升了黑盒攻击的实用性,也揭示了深度模型普遍存在的脆弱性,为后续防御机制设计提供了方向。 展开更多
关键词 生成式对抗攻击 模型迁移性 黑盒攻击
在线阅读 下载PDF
针对自动驾驶系统目标检测器的迁移隐蔽攻击方法
17
作者 郑君豪 蔺琛皓 +3 位作者 赵正宇 贾子羿 吴黎兵 沈超 《计算机研究与发展》 北大核心 2025年第8期2111-2124,共14页
基于深度学习的目标检测算法已广泛应用,与此同时最近的一系列研究表明现有的目标检测算法容易受到对抗性攻击的威胁,造成检测器失效.然而,聚焦于自动驾驶场景下对抗攻击的迁移性研究较少,并且鲜有研究关注该场景下对抗攻击的隐蔽性.针... 基于深度学习的目标检测算法已广泛应用,与此同时最近的一系列研究表明现有的目标检测算法容易受到对抗性攻击的威胁,造成检测器失效.然而,聚焦于自动驾驶场景下对抗攻击的迁移性研究较少,并且鲜有研究关注该场景下对抗攻击的隐蔽性.针对现有研究的不足,将对抗样本的优化类比于机器学习模型的训练过程,设计了提升攻击迁移性的算法模块.并且通过风格迁移的方式和神经渲染(neural rendering)技术,提出并实现了迁移隐蔽攻击(transferable and stealthy attack,TSA)方法.具体来说,首先将对抗样本进行重复拼接,结合掩膜生成最终纹理,并将其应用于整个车辆表面.为了模拟真实的环境条件,使用物理变换函数将渲染的伪装车辆嵌入逼真的场景中.最后,通过设计的损失函数优化对抗样本.仿真实验表明,TSA方法在攻击迁移能力上超过了现有方法,并在外观上具有一定的隐蔽性.此外,通过物理域实验进一步证明了TSA方法在现实世界中能够保持有效的攻击性能. 展开更多
关键词 对抗攻击 自动驾驶 目标检测 迁移性 隐蔽性 神经渲染
在线阅读 下载PDF
面向迁移攻击的视频对抗样本生成方法研究
18
作者 林哲伟 何春兰 +2 位作者 刘兴伟 王奇 孙宏 《信息安全研究》 北大核心 2025年第3期249-256,共8页
不同的视频识别模型具备不同的时间判别模式.在迁移攻击中,视频对抗样本生成时会对白盒模型的时间判别模式产生过拟合,从而导致对抗样本的迁移性较差.针对这一现象,提出了一种有效缓解该过拟合现象的算法.该算法通过抽帧的方式生成多个... 不同的视频识别模型具备不同的时间判别模式.在迁移攻击中,视频对抗样本生成时会对白盒模型的时间判别模式产生过拟合,从而导致对抗样本的迁移性较差.针对这一现象,提出了一种有效缓解该过拟合现象的算法.该算法通过抽帧的方式生成多个增广视频,放入白盒模型,反向传播得到增广梯度,然后对这些梯度进行归位并加权求和,获得最终的梯度信息,最终将梯度信息带入基于梯度的白盒攻击方法,如FGSM,BIM等,获得最终的对抗样本.对交叉熵损失函数进行了改进,交叉熵损失函数在指导对抗样本的生成时,优先目的是快速找到能够让模型分类错误的方向,而没有考虑分类结果与其他概率较高类别在语义空间的距离.针对这一现象,对经典的交叉熵损失函数进行了改进,增加了基于KL散度的正则项,基于该损失函数生成的对抗样本迁移性更强.在Kinetics-400以及UCF-101数据集上,以ResNet50和ResNet101为主干网络,分别训练了Non-Local,SlowFast以及TPN共计6个视频识别领域常用的模型.将上述模型中的一种作为白盒模型,对其余模型进行迁移攻击,实验证明了该方法的有效性. 展开更多
关键词 视频识别模型 对抗样本 损失函数 迁移攻击 交叉熵
在线阅读 下载PDF
利用频谱衰减增强深度神经网络对抗迁移攻击 被引量:1
19
作者 钱亚冠 孔亚鑫 +3 位作者 陈科成 沈云开 鲍琦琦 纪守领 《电子与信息学报》 北大核心 2025年第10期3847-3857,共11页
在人工智能对抗攻击领域中,传统的白盒梯度攻击方法在生成对抗样本的迭代过程中,往往会因替代模型的局部最优解而陷入停滞,难以实现跨模型的泛化效果。当前研究普遍认为,这种现象的主要原因在于对抗样本生成过程中输入特征的多样性不足... 在人工智能对抗攻击领域中,传统的白盒梯度攻击方法在生成对抗样本的迭代过程中,往往会因替代模型的局部最优解而陷入停滞,难以实现跨模型的泛化效果。当前研究普遍认为,这种现象的主要原因在于对抗样本生成过程中输入特征的多样性不足,致使生成的样本过度拟合于替代模型。针对这一问题,该文提出提升模型泛化能力的数据增强技术。与以往的研究在图像的空间域上进行诸如旋转、裁剪等变换不同,该文从频域视角入手,提出一种基于频谱系数衰减的输入变换方法。通过在输入图像的频域中衰减各频率分量的幅度信息,提高迭代中输入的多样性,有效降低对源模型特定的依赖,减小过拟合风险。在ImageNet验证集上的测试表明,该方法及两种优化方法在基于卷积和Transformer架构的模型上均能有效提升无目标对抗样本的迁移能力。 展开更多
关键词 黑盒攻击 对抗样本迁移性 频域分析 深度学习
在线阅读 下载PDF
基于CLIP语义偏移的三维点云可迁移攻击
20
作者 马扬 黄璐洁 +3 位作者 彭伟龙 吴志泽 唐可可 方美娥 《图学学报》 北大核心 2025年第3期588-601,共14页
基于深度学习的三维点云理解在自动驾驶、机器人和监控等各种应用中受到越来越多的关注,研究点云深度学习模型的对抗攻击,有助于评估和提高其对抗鲁棒性。然而,大多数现有攻击方法都是针对白盒攻击,生成的对抗样本对于未知模型参数的黑... 基于深度学习的三维点云理解在自动驾驶、机器人和监控等各种应用中受到越来越多的关注,研究点云深度学习模型的对抗攻击,有助于评估和提高其对抗鲁棒性。然而,大多数现有攻击方法都是针对白盒攻击,生成的对抗样本对于未知模型参数的黑盒模型的迁移攻击成功率极低且易被防御。其只考虑在几何空间中优化来误导特定分类器,未能从本质上改变点云数据的深层内在语义结构,导致其在不同的分类器下迁移攻击能力有限。为了解决这些问题,提出了一种基于三维CLIP语义偏移攻击方法(3DCLAT),利用多模态大模型的丰富语义理解能力,在攻击中同时考虑点云的语义信息,使对抗样本在语义上极大程度地远离原语义属性来提高攻击迁移性。另外,考虑到当前攻击迁移性高的对抗样本普遍不可感知性不够好,将语义对抗攻击加入到谱域空间上,使对抗点云与干净点云相比有难以察觉的形变,达到了可迁移性与不可感知性的一个微妙的平衡。通过大量实验证明,该算法可以显著提高对抗样本的可迁移性,并且对防御方法更具鲁棒性。 展开更多
关键词 CLIP 点云 对抗攻击 攻击迁移性 谱域
在线阅读 下载PDF
上一页 1 2 7 下一页 到第
使用帮助 返回顶部