期刊文献+
共找到38篇文章
< 1 2 >
每页显示 20 50 100
A Fast Two-Stage Black-Box Deep Learning Network Attacking Method Based on Cross-Correlation 被引量:1
1
作者 Deyin Li Mingzhi Cheng +2 位作者 Yu Yang Min Lei Linfeng Shen 《Computers, Materials & Continua》 SCIE EI 2020年第7期623-635,共13页
Deep learning networks are widely used in various systems that require classification.However,deep learning networks are vulnerable to adversarial attacks.The study on adversarial attacks plays an important role in de... Deep learning networks are widely used in various systems that require classification.However,deep learning networks are vulnerable to adversarial attacks.The study on adversarial attacks plays an important role in defense.Black-box attacks require less knowledge about target models than white-box attacks do,which means black-box attacks are easier to launch and more valuable.However,the state-of-arts black-box attacks still suffer in low success rates and large visual distances between generative adversarial images and original images.This paper proposes a kind of fast black-box attack based on the cross-correlation(FBACC)method.The attack is carried out in two stages.In the first stage,an adversarial image,which would be missclassified as the target label,is generated by using gradient descending learning.By far the image may look a lot different than the original one.Then,in the second stage,visual quality keeps getting improved on the condition that the label keeps being missclassified.By using the cross-correlation method,the error of the smooth region is ignored,and the number of iterations is reduced.Compared with the proposed black-box adversarial attack methods,FBACC achieves a better fooling rate and fewer iterations.When attacking LeNet5 and AlexNet respectively,the fooling rates are 100%and 89.56%.When attacking them at the same time,the fooling rate is 69.78%.FBACC method also provides a new adversarial attack method for the study of defense against adversarial attacks. 展开更多
关键词 black-box adversarial attack CROSS-CORRELATION two-module
在线阅读 下载PDF
AMA:Adaptive Multimodal Adversarial Attack with Dynamic Perturbation Optimization
2
作者 Yufei Shi Ziwen He +2 位作者 Teng Jin Haochen Tong Zhangjie Fu 《Computer Modeling in Engineering & Sciences》 2025年第8期1831-1848,共18页
This article proposes an innovative adversarial attack method,AMA(Adaptive Multimodal Attack),which introduces an adaptive feedback mechanism by dynamically adjusting the perturbation strength.Specifically,AMA adjusts... This article proposes an innovative adversarial attack method,AMA(Adaptive Multimodal Attack),which introduces an adaptive feedback mechanism by dynamically adjusting the perturbation strength.Specifically,AMA adjusts perturbation amplitude based on task complexity and optimizes the perturbation direction based on the gradient direction in real time to enhance attack efficiency.Experimental results demonstrate that AMA elevates attack success rates from approximately 78.95%to 89.56%on visual question answering and from78.82%to 84.96%on visual reasoning tasks across representative vision-language benchmarks.These findings demonstrate AMA’s superior attack efficiency and reveal the vulnerability of current visual language models to carefully crafted adversarial examples,underscoring the need to enhance their robustness. 展开更多
关键词 Adversarial attack visual language model black-box attack adaptive multimodal attack disturbance intensity
在线阅读 下载PDF
One-Variable Attack on the Industrial Fault Classification System and Its Defense
3
作者 Yue Zhuo Yuri A.W.Shardt Zhiqiang Ge 《Engineering》 SCIE EI CAS 2022年第12期240-251,共12页
Recently developed fault classification methods for industrial processes are mainly data-driven.Notably,models based on deep neural networks have significantly improved fault classification accuracy owing to the inclu... Recently developed fault classification methods for industrial processes are mainly data-driven.Notably,models based on deep neural networks have significantly improved fault classification accuracy owing to the inclusion of a large number of data patterns.However,these data-driven models are vulnerable to adversarial attacks;thus,small perturbations on the samples can cause the models to provide incorrect fault predictions.Several recent studies have demonstrated the vulnerability of machine learning methods and the existence of adversarial samples.This paper proposes a black-box attack method with an extreme constraint for a safe-critical industrial fault classification system:Only one variable can be perturbed to craft adversarial samples.Moreover,to hide the adversarial samples in the visualization space,a Jacobian matrix is used to guide the perturbed variable selection,making the adversarial samples in the dimensional reduction space invisible to the human eye.Using the one-variable attack(OVA)method,we explore the vulnerability of industrial variables and fault types,which can help understand the geometric characteristics of fault classification systems.Based on the attack method,a corresponding adversarial training defense method is also proposed,which efficiently defends against an OVA and improves the prediction accuracy of the classifiers.In experiments,the proposed method was tested on two datasets from the Tennessee–Eastman process(TEP)and steel plates(SP).We explore the vulnerability and correlation within variables and faults and verify the effectiveness of OVAs and defenses for various classifiers and datasets.For industrial fault classification systems,the attack success rate of our method is close to(on TEP)or even higher than(on SP)the current most effective first-order white-box attack method,which requires perturbation of all variables. 展开更多
关键词 Adversarial samples black-box attack Industrial data security Fault classification system
在线阅读 下载PDF
A Quantum Private Query Protocol for Enhancing both User and Database Privacy
4
作者 Yi-Hua Zhou Xue-Wei Bai +2 位作者 Lei-Lei Li Wei-Min Shi Yu-Guang Yang 《Communications in Theoretical Physics》 SCIE CAS CSCD 2018年第1期31-36,共6页
In order to protect the privacy of query user and database,some QKD-based quantum private query(QPQ)protocols were proposed.Unfortunately some of them cannot resist internal attack from database perfectly;some others ... In order to protect the privacy of query user and database,some QKD-based quantum private query(QPQ)protocols were proposed.Unfortunately some of them cannot resist internal attack from database perfectly;some others can ensure better user privacy but require a reduction of database privacy.In this paper,a novel two-way QPQ protocol is proposed to ensure the privacy of both sides of communication.In our protocol,user makes initial quantum states and derives the key bit by comparing initial quantum state and outcome state returned from database by ctrl or shift mode instead of announcing two non-orthogonal qubits as others which may leak part secret information.In this way,not only the privacy of database be ensured but also user privacy is strengthened.Furthermore,our protocol can also realize the security of loss-tolerance,cheat-sensitive,and resisting JM attack etc. 展开更多
关键词 quantum private query quantum key distribution JM attack quantum cryptography
原文传递
基于外源样本的深度神经网络模型版权保护框架 被引量:1
5
作者 刘红 吴远豪 +3 位作者 李析东 吴迪 陈思旭 吴希昊 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第3期405-416,共12页
深度神经网络(deep neural networks,DNN)的知识产权(intellectual property,IP)保护引起了人们的普遍关注。已有的研究提出的查询修改攻击通过修改关键样本,可以使基于后门的DNN水印方法性能下降。防御工作将数据集内样本当作关键样本... 深度神经网络(deep neural networks,DNN)的知识产权(intellectual property,IP)保护引起了人们的普遍关注。已有的研究提出的查询修改攻击通过修改关键样本,可以使基于后门的DNN水印方法性能下降。防御工作将数据集内样本当作关键样本来抵御查询修改攻击,导致模型的性能随着关键样本的增多而下降。因此,提出将具有外部特征的样本作为关键样本来解决上述问题。在目标模型的训练过程中,将外源样本与训练样本组成混合样本进行训练,将外源样本作为关键样本嵌入到模型中。当攻击者使用查询修改攻击阻止关键样本触发后门时,该样本能够顺利触发后门,从而验证版权。为了阻止关键样本伪造,设计一种不可见水印嵌入与提取机制,将水印嵌入到关键样本中,只有通过水印验证的关键样本触发后门才可以声明版权。通过实验,所提出的方法对模型微调、模型剪枝、查询修改攻击都具有较高的鲁棒性,同时伪造的关键样本无法通过版权认证。 展开更多
关键词 深度神经网络(DNN) 知识产权保护(IP) 水印 查询修改攻击
在线阅读 下载PDF
基于稀疏子空间采样的信号检测网络黑盒查询对抗攻击方法
6
作者 李东阳 王林元 +2 位作者 彭进先 马德魁 闫镔 《电子与信息学报》 北大核心 2025年第8期2808-2818,共11页
随着深度神经网络在信号检测任务的应用,神经网络易受到对抗样本攻击的脆弱性也受到了广泛关注。针对无法获取模型内部信息的信号检测网络黑盒攻击场景,该文提出一种基于稀疏子空间采样的黑盒查询对抗攻击方法。该方法将信号样本检测数... 随着深度神经网络在信号检测任务的应用,神经网络易受到对抗样本攻击的脆弱性也受到了广泛关注。针对无法获取模型内部信息的信号检测网络黑盒攻击场景,该文提出一种基于稀疏子空间采样的黑盒查询对抗攻击方法。该方法将信号样本检测数量消失比例作为判断攻击是否成功的约束条件,构造信号检测网络对抗样本攻击模型,参考跳步跳跃攻击(HSJA)算法设计基于决策边界的信号检测网络黑盒查询对抗攻击方法求解该模型,以生成信号对抗样本。为了进一步改善查询效率,该文根据信号对抗扰动特点构建稀疏子空间采样进行查询攻击,即在生成对抗样本时,按照一定比例选择具有较大幅度的信号分量,并仅在这些选定的分量上添加扰动。实验结果表明,在信号目标消失数量比例0.3的决策边界下,稀疏子空间采样黑盒对抗攻击方法使得信号检测网络mAP值降低了43.6%、召回率降低了41.2%。与全空间采样方法相比,稀疏子空间采样方法攻击成功率提升了2.5%,且对抗扰动平均能量比降低了3.47%。稀疏子空间采样攻击方法可以使得信号检测网络性能明显下降,相较于全空间采样具有攻击成功率更高、扰动强度更小等优势。 展开更多
关键词 信号检测网络 信号对抗样本 黑盒查询攻击 稀疏子空间采样
在线阅读 下载PDF
Generating Adversarial Patterns in Facial Recognition with Visual Camouflage
7
作者 BAO Qirui MEI Haiyang +3 位作者 WEI Huilin LU Zheng WANG Yuxin YANG Xin 《Journal of Shanghai Jiaotong university(Science)》 2025年第5期911-922,共12页
Deep neural networks,especially face recognition models,have been shown to be vulnerable to adversarial examples.However,existing attack methods for face recognition systems either cannot attack black-box models,are n... Deep neural networks,especially face recognition models,have been shown to be vulnerable to adversarial examples.However,existing attack methods for face recognition systems either cannot attack black-box models,are not universal,have cumbersome deployment processes,or lack camouflage and are easily detected by the human eye.In this paper,we propose an adversarial pattern generation method for face recognition and achieve universal black-box attacks by pasting the pattern on the frame of goggles.To achieve visual camouflage,we use a generative adversarial network(GAN).The scale of the generative network of GAN is increased to balance the performance conflict between concealment and adversarial behavior,the perceptual loss function based on VGG19 is used to constrain the color style and enhance GAN’s learning ability,and the fine-grained meta-learning adversarial attack strategy is used to carry out black-box attacks.Sufficient visualization results demonstrate that compared with existing methods,the proposed method can generate samples with camouflage and adversarial characteristics.Meanwhile,extensive quantitative experiments show that the generated samples have a high attack success rate against black-box models. 展开更多
关键词 face recognition adversarial attacks black-box attack camouflage pattern
原文传递
Bridging the Gap Between Individual and Universal Adversarial Perturbations
8
作者 Li Yanchun Li Zemin +2 位作者 Zeng Li Zhu Jiang Song Jingkuan 《China Communications》 2025年第9期244-263,共20页
In recent years,universal adversarial per-turbation(UAP)has attracted the attention of many re-searchers due to its good generalization.However,in order to generate an appropriate UAP,current methods usually require e... In recent years,universal adversarial per-turbation(UAP)has attracted the attention of many re-searchers due to its good generalization.However,in order to generate an appropriate UAP,current methods usually require either accessing the original dataset or meticulously constructing optimization functions and proxy datasets.In this paper,we aim to elimi-nate any dependency on proxy datasets and explore a method for generating Universal Adversarial Pertur-bations(UAP)on a single image.After revisiting re-search on UAP,we discovered that the key to gener-ating UAP lies in the accumulation of Individual Ad-versarial Perturbation(IAP)gradient,which prompted us to study the method of accumulating gradients from an IAP.We designed a simple and effective process to generate UAP,which only includes three steps:pre-cessing,generating an IAP and scaling the perturba-tions.Through our proposed process,any IAP gener-ated on an image can be constructed into a UAP with comparable performance,indicating that UAP can be generated free of data.Extensive experiments on var-ious classifiers and attack approaches demonstrate the superiority of our method on efficiency and aggressiveness. 展开更多
关键词 black-box attack data-independent transferability universal adversarial perturbation
在线阅读 下载PDF
Enhancing Adversarial Example Transferability via Regularized Constrained Feature Layer
9
作者 Xiaoyin Yi Long Chen +2 位作者 Jiacheng Huang Ning Yu Qian Huang 《Computers, Materials & Continua》 2025年第4期157-175,共19页
Transfer-based Adversarial Attacks(TAAs)can deceive a victim model even without prior knowledge.This is achieved by leveraging the property of adversarial examples.That is,when generated from a surrogate model,they re... Transfer-based Adversarial Attacks(TAAs)can deceive a victim model even without prior knowledge.This is achieved by leveraging the property of adversarial examples.That is,when generated from a surrogate model,they retain their features if applied to other models due to their good transferability.However,adversarial examples often exhibit overfitting,as they are tailored to exploit the particular architecture and feature representation of source models.Consequently,when attempting black-box transfer attacks on different target models,their effectiveness is decreased.To solve this problem,this study proposes an approach based on a Regularized Constrained Feature Layer(RCFL).The proposed method first uses regularization constraints to attenuate the initial examples of low-frequency components.Perturbations are then added to a pre-specified layer of the source model using the back-propagation technique,in order to modify the original adversarial examples.Afterward,a regularized loss function is used to enhance the black-box transferability between different target models.The proposed method is finally tested on the ImageNet,CIFAR-100,and Stanford Car datasets with various target models,The obtained results demonstrate that it achieves a significantly higher transfer-based adversarial attack success rate compared with baseline techniques. 展开更多
关键词 Adversarial examples black-box transferability regularized constrained transfer-based adversarial attacks
在线阅读 下载PDF
Analysis and defense against joint-measurement attacks to quantum private query protocols for multi-rounds
10
作者 Bin Liu Jiahao Huang +4 位作者 Wei Huang Zhigang Li Nankun Mu Bingjie Xu Bei Gong 《Science China(Physics,Mechanics & Astronomy)》 2025年第8期186-195,共10页
Quantum private query(QPQ)protocols based on quantum key distribution(QKD)have gained significant attention due to their practical implementation advantages.However,joint-measurement attacks pose a serious threat to t... Quantum private query(QPQ)protocols based on quantum key distribution(QKD)have gained significant attention due to their practical implementation advantages.However,joint-measurement attacks pose a serious threat to their security,especially in real-world multi-query scenarios.Most existing QKD-based QPQ protocols become highly vulnerable when users make repeated database queries.Attackers can exploit strategies like minimum error discrimination(MED)and unambiguous state discrimination(USD)to completely break database security.This work thoroughly analyzes joint-measurement attacks in multi-round QPQ systems.We demonstrate that these attacks make current protocols practically unusable.To address this critical issue,we propose an effective defense method using classical post-processing.Our solution not only reveals fundamental flaws in existing approaches but also provides a reliable way to build secure QPQ systems.These findings enable the development of robust protocols that can withstand real-world usage patterns,moving QPQ technology from theory to practical application. 展开更多
关键词 quantum private query symmetrically private information retrieval joint-measurement attack
原文传递
LBS中连续查询攻击算法及匿名性度量 被引量:32
11
作者 林欣 李善平 杨朝晖 《软件学报》 EI CSCD 北大核心 2009年第4期1058-1068,共11页
k-匿名机制是LBS(location based service)中保证查询隐私性的重要手段.已有文献指出,现有的k-匿名机制不能有效保护连续性查询的隐私性.提出一种连续查询发送模型,该模型融合了查询发送时间的间隔模型和连续性模型,针对此模型下的两种k... k-匿名机制是LBS(location based service)中保证查询隐私性的重要手段.已有文献指出,现有的k-匿名机制不能有效保护连续性查询的隐私性.提出一种连续查询发送模型,该模型融合了查询发送时间的间隔模型和连续性模型,针对此模型下的两种k-匿名算法Clique Cloaking和Non-clique Cloaking,分别提出了一种连续查询攻击算法.在此攻击算法下,匿名集的势不再适合作为查询匿名性的度量,因此提出一种基于熵理论的度量方式AD(anonymityd egree).实验结果表明,对连续性很强的查询,攻击算法重识别用户身份的成功率极高;AD比匿名集的势更能反映查询的匿名性. 展开更多
关键词 LBS(location-based service) K-匿名 连续查询 攻击算法 匿名性度量
在线阅读 下载PDF
路网环境下保护LBS位置隐私的连续KNN查询方法 被引量:24
12
作者 周长利 马春光 杨松涛 《计算机研究与发展》 EI CSCD 北大核心 2015年第11期2628-2644,共17页
位置隐私保护与基于位置的服务(location based service,LBS)的查询服务质量是一对矛盾,在连续查询(continuous query)和实际路网环境下,位置隐私保护问题需考虑更多限制因素.如何在路网连续查询过程中有效保护用户位置隐私的同时获取... 位置隐私保护与基于位置的服务(location based service,LBS)的查询服务质量是一对矛盾,在连续查询(continuous query)和实际路网环境下,位置隐私保护问题需考虑更多限制因素.如何在路网连续查询过程中有效保护用户位置隐私的同时获取精确的兴趣点(place of interest,POI)查询结果是目前的研究热点.利用假位置的思想,提出了路网环境下以交叉路口作为锚点的连续查询算法,在保护位置隐私的同时获取精确的K邻近查询(K nearest neighbor,KNN)结果;基于注入假查询和构造查询匿名组的方法,提出了抗查询内容关联攻击和抗运动模式推断攻击的轨迹隐私保护方法,并在分析中给出了位置隐私保护和查询服务质量平衡方法的讨论.性能分析及实验表明,该方法能够在连续查询中提供较强的位置隐私保护,并具有良好的实效性和均衡的数据通信量. 展开更多
关键词 位置隐私保护 连续查询 基于位置的服务 路网 关联攻击
在线阅读 下载PDF
模型驱动的Web应用SQL注入渗透测试 被引量:5
13
作者 田伟 许静 +2 位作者 杨巨峰 张莹 刘磊 《高技术通讯》 CAS CSCD 北大核心 2012年第11期1161-1168,共8页
针对结构化查询语言(SQL)注入渗透测试用例不充分造成测试漏报的问题,对基于形式化建模生成渗透测试用例问题进行了研究,提出了以下方法:将SQL注入漏洞渗透测试用例生成分为两步:第1步建立渗透测试用例的形式化模型,以用例模型... 针对结构化查询语言(SQL)注入渗透测试用例不充分造成测试漏报的问题,对基于形式化建模生成渗透测试用例问题进行了研究,提出了以下方法:将SQL注入漏洞渗透测试用例生成分为两步:第1步建立渗透测试用例的形式化模型,以用例模型更全面、有规律地描述当前各种SQL注入攻击的方法模式,指导生成更多种类的用例输入;第2步提出若干新的SQL注入漏洞渗透测试用例覆盖度准则,将用例模型实例化、生成覆盖更多样式的用例输入。实验表明,用上述方法生成的用例,优于当前其它研究中使用的随机枚举用例,可更有效地测出隐藏于Web应用不足防御措施之后的SQL注入漏洞,从而降低渗透测试结果的漏报。 展开更多
关键词 WEB 渗透测试 结构化查询语言(SQL)注入 攻击建模 安全漏洞 用例
在线阅读 下载PDF
二阶SQL注入攻击防御模型 被引量:8
14
作者 田玉杰 赵泽茂 +1 位作者 张海川 李学双 《信息网络安全》 2014年第11期70-73,共4页
随着互联网技术的快速发展,Web应用程序的使用也日趋广泛,其中基于数据库的Web应用程序己经广泛用于企业的各种业务系统中。然而由于开发人员水平和经验参差不齐,使得Web应用程序存在大量安全隐患。影响Web应用程序安全的因素有很多,其... 随着互联网技术的快速发展,Web应用程序的使用也日趋广泛,其中基于数据库的Web应用程序己经广泛用于企业的各种业务系统中。然而由于开发人员水平和经验参差不齐,使得Web应用程序存在大量安全隐患。影响Web应用程序安全的因素有很多,其中SQL注入攻击是最常见且最易于实施的攻击,且SQL注入攻击被认为是危害最广的。因此,做好SQL注入攻击的防范工作对于保证Web应用程序的安全十分关键,如何更有效地防御SQL注入攻击成为重要的研究课题。SQL注入攻击利用结构化查询语言的语法进行攻击。传统的SQL注入攻击防御模型是从用户输入过滤和SQL语句语法比较的角度进行防御,当数据库中的恶意数据被拼接到动态SQL语句时,就会导致二阶SQL注入攻击。文章在前人研究的基础上提出了一种基于改进参数化的二阶SQL注入攻击防御模型。该模型主要包括输入过滤模块、索引替换模块、语法比较模块和参数化替换模块。实验表明,该模型对于二阶SQL注入攻击具有很好的防御能力。 展开更多
关键词 结构化查询语言 二阶SQL注入攻击 防御模型
在线阅读 下载PDF
面向双层传感网的隐私保护k-NN查询处理协议 被引量:4
15
作者 彭辉 陈红 +3 位作者 张晓莹 曾菊儒 吴云乘 王珊 《计算机学报》 EI CSCD 北大核心 2016年第5期872-892,共21页
无线传感器网络作为物联网感知层的核心组成部分,具有广阔的应用前景.然而,隐私泄露问题严重阻碍了传感器网络的发展.目前,传感器网络隐私保护技术已成为研究热点,其中隐私保护κ-NN(κ-Nearest Neighbor)查询协议是富有挑战性的问题.... 无线传感器网络作为物联网感知层的核心组成部分,具有广阔的应用前景.然而,隐私泄露问题严重阻碍了传感器网络的发展.目前,传感器网络隐私保护技术已成为研究热点,其中隐私保护κ-NN(κ-Nearest Neighbor)查询协议是富有挑战性的问题.文中提出了面向双层传感器网络的高效的隐私保护κ-NN查询协议.首先,为提升查询效率,基于定向存储策略给出了适用于双层传感网的κ-NN查询架构.其次,针对管理节点俘获攻击,提出了一种新颖的隐私保护数据编码机制,通过为真实数据附加编码的方式,保证在不泄露数据隐私的同时精确地完成查询处理.再次,针对节点共谋攻击,设计了基于代理节点的单向数据隐藏机制,通过破坏普通节点与管理节点间数据的关联性实现抵御共谋攻击的目标.理论分析和仿真实验验证了协议的安全性和有效性. 展开更多
关键词 物联网 无线传感器网络 隐私保护 k-NN查询 节点俘获 共谋攻击
在线阅读 下载PDF
面向路网限制的位置隐私保护算法 被引量:3
16
作者 孙岚 罗钊 +1 位作者 吴英杰 王一蕾 《山东大学学报(工学版)》 CAS 北大核心 2012年第5期96-101,共6页
目前关于位置服务中的位置隐私保护研究大多是面向欧式空间,其相关模型及算法无法直接用于解决路网环境下位置服务中可能存在的隐私泄露问题。本研究针对公路网络下用户分布不均可能导致的推断攻击,设计出一种面向路网限制的位置隐私保... 目前关于位置服务中的位置隐私保护研究大多是面向欧式空间,其相关模型及算法无法直接用于解决路网环境下位置服务中可能存在的隐私泄露问题。本研究针对公路网络下用户分布不均可能导致的推断攻击,设计出一种面向路网限制的位置隐私保护算法。本算法通过对公路网络的边权进行排序,并结合路段地理位置分布,进行隐匿边集的构造,以达到降低边权不均引起推断攻击的风险。通过实验对本算法的可行性及有效性与同类算法进行了比较分析。实验结果表明,本算法是有效可行的。 展开更多
关键词 位置隐私保护 公路网络 边权不均 边权推断攻击 隐匿边集 查询代价
原文传递
一种对抗无线认知传感器网络攻击的分布式防护研究 被引量:1
17
作者 郎为民 周建华 李建军 《信息网络安全》 2011年第6期22-25,共4页
该文提出了在无线认知传感器网络(WCSN)中不采用任何防护措施的情况下,网络极易受到流量注入攻击的问题,通过对无线认知传感器网络(WCSN)中流量注入攻击方式的研究,提出了一种分布式防护方案,并对方案进行了详细分析。
关键词 无线认知传感器网络 流量注入攻击 注入数据分组攻击 洪泛查询攻击
在线阅读 下载PDF
对位置信息服务的连续查询攻击算法 被引量:1
18
作者 杨琼 俞立峰 《计算机应用》 CSCD 北大核心 2014年第1期95-98,170,共5页
为了解决连续查询攻击算法给位置信息服务(LBS)带来的安全隐患,基于已有的k-匿名化Cloaking算法提出了一种新的连续查询攻击算法——CQACA。该算法首先利用熵和查询匿名度量定义了查询识别率的目标函数,并结合元胞蚁群给出了目标函数的... 为了解决连续查询攻击算法给位置信息服务(LBS)带来的安全隐患,基于已有的k-匿名化Cloaking算法提出了一种新的连续查询攻击算法——CQACA。该算法首先利用熵和查询匿名度量定义了查询识别率的目标函数,并结合元胞蚁群给出了目标函数的求解算法。最后,利用移动对象数据生成器进行实验,深入研究了影响CQACA的关键因素,同时对比分析了该算法与Cloaking算法的性能差异:CQACA与实际数据的误差为13.27%,而Cloaking算法则为17.35%。结果表明CQACA具有一定的有效性。 展开更多
关键词 位置信息服务 连续查询攻击算法 查询匿名度量 查询识别率 元胞蚁群
在线阅读 下载PDF
数据挖掘提取查询树特征的SQL注入攻击检测 被引量:6
19
作者 张燕 《电子技术应用》 北大核心 2016年第3期90-94,共5页
针对Web应用中数据库信息容易遭受SQL注入攻击的问题,提出一种基于数据挖掘技术的SQL注入攻击检测方法,其核心在于查询树特征的提取和转换。首先,在SQL数据库日志中收集内部查询树;然后,提取查询树中的语义和语法特征,并通过利用多维序... 针对Web应用中数据库信息容易遭受SQL注入攻击的问题,提出一种基于数据挖掘技术的SQL注入攻击检测方法,其核心在于查询树特征的提取和转换。首先,在SQL数据库日志中收集内部查询树;然后,提取查询树中的语义和语法特征,并通过利用多维序列作为中间表示将查询树特征转换为一个n维字符特征向量;再后,根据查询树类型,利用不同的统计模型将字符特征向量转换成n维数值特征向量;最后,根据这些特征,利用多项式核函数SVM对其进行分类,从而实现SQL攻击检测。实验结果表明,相比其他几种较新的方案,提出的方案有效提高了SQL攻击的正确检测率。 展开更多
关键词 数据挖掘 SQL注入攻击 查询树 特征转换 多项式核函数SVM
在线阅读 下载PDF
Geohash编码抗k近邻攻击的脆弱性分析 被引量:1
20
作者 涂国庆 杨延浩 刘树波 《信息网络安全》 CSCD 北大核心 2021年第2期10-15,共6页
Geohash编码作为一种降维技术目前已应用于空间数据库和空间数据引擎中,但其安全性还有待进一步研究。文章关注Geohash编码存在的安全漏洞,从理论上分析了此种降维技术产生推理通道的原因,并提出一种基于k近邻查询的加密Geohash字段重... Geohash编码作为一种降维技术目前已应用于空间数据库和空间数据引擎中,但其安全性还有待进一步研究。文章关注Geohash编码存在的安全漏洞,从理论上分析了此种降维技术产生推理通道的原因,并提出一种基于k近邻查询的加密Geohash字段重构算法,通过观察大量k近邻查询响应中的明文信息进行统计推断并重构出加密Geohash的原始值。对加密兴趣点数据库进行重构实验,实验表明,观察到的查询响应数量越多,重构值的精确度越高。在Geohash编码精度为30 bit的情况下,当观察到100000到3000000次查询响应时,重构值与原始值平均误差为0.074%到0.015%。该实验揭示了Geohash编码在抵抗k近邻查询推理攻击方面的脆弱性及形成机理,将促进相关地理信息系统行业的安全应用与研究。 展开更多
关键词 空间数据库 Geohash编码 K近邻查询 可搜索加密 数据库推理攻击
在线阅读 下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部