期刊文献+
共找到87篇文章
< 1 2 5 >
每页显示 20 50 100
Defending Federated Learning System from Poisoning Attacks via Efficient Unlearning
1
作者 Long Cai Ke Gu Jiaqi Lei 《Computers, Materials & Continua》 2025年第4期239-258,共20页
Large-scale neural networks-based federated learning(FL)has gained public recognition for its effective capabilities in distributed training.Nonetheless,the open system architecture inherent to federated learning syst... Large-scale neural networks-based federated learning(FL)has gained public recognition for its effective capabilities in distributed training.Nonetheless,the open system architecture inherent to federated learning systems raises concerns regarding their vulnerability to potential attacks.Poisoning attacks turn into a major menace to federated learning on account of their concealed property and potent destructive force.By altering the local model during routine machine learning training,attackers can easily contaminate the global model.Traditional detection and aggregation solutions mitigate certain threats,but they are still insufficient to completely eliminate the influence generated by attackers.Therefore,federated unlearning that can remove unreliable models while maintaining the accuracy of the global model has become a solution.Unfortunately some existing federated unlearning approaches are rather difficult to be applied in large neural network models because of their high computational expenses.Hence,we propose SlideFU,an efficient anti-poisoning attack federated unlearning framework.The primary concept of SlideFU is to employ sliding window to construct the training process,where all operations are confined within the window.We design a malicious detection scheme based on principal component analysis(PCA),which calculates the trust factors between compressed models in a low-cost way to eliminate unreliable models.After confirming that the global model is under attack,the system activates the federated unlearning process,calibrates the gradients based on the updated direction of the calibration gradients.Experiments on two public datasets demonstrate that our scheme can recover a robust model with extremely high efficiency. 展开更多
关键词 Federated learning malicious client detection model recovery machine unlearning
在线阅读 下载PDF
Ensuring User Privacy and Model Security via Machine Unlearning: A Review
2
作者 Yonghao Tang Zhiping Cai +2 位作者 Qiang Liu Tongqing Zhou Qiang Ni 《Computers, Materials & Continua》 SCIE EI 2023年第11期2645-2656,共12页
As an emerging discipline,machine learning has been widely used in artificial intelligence,education,meteorology and other fields.In the training of machine learning models,trainers need to use a large amount of pract... As an emerging discipline,machine learning has been widely used in artificial intelligence,education,meteorology and other fields.In the training of machine learning models,trainers need to use a large amount of practical data,which inevitably involves user privacy.Besides,by polluting the training data,a malicious adversary can poison the model,thus compromising model security.The data provider hopes that the model trainer can prove to them the confidentiality of the model.Trainer will be required to withdraw data when the trust collapses.In the meantime,trainers hope to forget the injected data to regain security when finding crafted poisoned data after the model training.Therefore,we focus on forgetting systems,the process of which we call machine unlearning,capable of forgetting specific data entirely and efficiently.In this paper,we present the first comprehensive survey of this realm.We summarize and categorize existing machine unlearning methods based on their characteristics and analyze the relation between machine unlearning and relevant fields(e.g.,inference attacks and data poisoning attacks).Finally,we briefly conclude the existing research directions. 展开更多
关键词 Machine learning machine unlearning privacy protection trusted data deletion
在线阅读 下载PDF
Learn to Unlearn for Transformative Learning:An Epistemological Look
3
作者 Jose Manuel Salum Tome 《Journal of Philosophy Study》 2021年第2期107-115,共9页
The present work corresponds to a reflection about several theories and approaches of the learning and their relevance in the training of social agents,reflection that emerges from the practice of the training,and att... The present work corresponds to a reflection about several theories and approaches of the learning and their relevance in the training of social agents,reflection that emerges from the practice of the training,and attending to the fact that the meaning of what it implies to learn and how it is that is learned is not at the center of the discussion in universities in Latin America,which emphasizes more what to teach rather than how to teach. 展开更多
关键词 LEARNING unlearning RELEARNING continuing education
在线阅读 下载PDF
要学会unlearn
4
作者 葛传椝 《语言教育》 1988年第1期2-3,共2页
“unlearn”从表面上看来是“learn”的反义词。既然“He learns English”是“他学习英语”,“She unlearnsEnglish”似乎就是“她不学习英语”。其实不然,“unlearn”并不是“不学习”,而是“把巳学到的不正确的东西改正过来”。
关键词 DOING unlearn FINLAND 选词 有错必纠 三十岁 我自己 一本 FRIENDS 地理书
在线阅读 下载PDF
In the Arms of Unconsciousness:Capitalism,Creative Economy,and the End of Rest in Gustavo Vinagre’s Unlearning to Sleep
5
作者 Diego Santos Vieira de Jesus 《Journal of Literature and Art Studies》 2021年第10期759-763,共5页
The aim of the article is to explore the relation among capitalism,creative economy,and the end of rest in Gustavo Vinagre’s movie Unlearning to Sleep.The main argument indicates that,in the context of the imperative... The aim of the article is to explore the relation among capitalism,creative economy,and the end of rest in Gustavo Vinagre’s movie Unlearning to Sleep.The main argument indicates that,in the context of the imperatives within the inhumane temporalities of the 24/7 society,sleep and rest may represent an inevitable and anomalous resistance to the demands of the capitalist order in which creative economy is immersed and exposed in the movie. 展开更多
关键词 CAPITALISM creative economy Gustavo Vinagre unlearning to sleep Brazilian cinema REST SLEEP
在线阅读 下载PDF
An overview of machine unlearning
6
作者 Chunxiao Li Haipeng Jiang +4 位作者 Jiankang Chen Yu Zhao Shuxuan Fu Fangming Jing Yu Guo 《High-Confidence Computing》 2025年第2期122-130,共9页
Nowadays,machine learning is widely used in various applications.Training a model requires huge amounts of data,but it can pose a threat to user privacy.With the growing concern for privacy,the“Right to be Forgotten... Nowadays,machine learning is widely used in various applications.Training a model requires huge amounts of data,but it can pose a threat to user privacy.With the growing concern for privacy,the“Right to be Forgotten”has been proposed,which means that users have the right to request that their personal information be removed from machine learning models.The emergence of machine unlearning is a response to this need.Implementing machine unlearning is not easy because simply deleting samples from a database does not allow the model to“forget”the data.Therefore,this paper summarises the definition of the machine unlearning formulation,process,deletion requests,design requirements and validation,algorithms,applications,and future perspectives,in the hope that it will help future researchers in machine unlearning. 展开更多
关键词 Machine unlearning unlearning definition unlearning requirements and validation unlearning algorithms
在线阅读 下载PDF
Towards efficient and effective unlearning of large language models for recommendation
7
作者 Hangyu WANG Jianghao LIN +4 位作者 Bo CHEN Yang YANG Ruiming TANG Weinan ZHANG Yong YU 《Frontiers of Computer Science》 2025年第3期119-121,共3页
1 Introduction Large Language Models(LLMs)possess massive parameters and are trained on vast datasets,demonstrating exceptional proficiency in various tasks.The remarkable advancements in LLMs also inspire the explora... 1 Introduction Large Language Models(LLMs)possess massive parameters and are trained on vast datasets,demonstrating exceptional proficiency in various tasks.The remarkable advancements in LLMs also inspire the exploration of leveraging LLMs as recommenders(LLMRec),whose effectiveness stems from extensive open-world knowledge and reasoning ability in LLMs[1].LLMRec obtains the recommendation ability through instruction tuning on the user interaction data.But in many cases,it is also crucial for LLMRec to forget specific user data,which is referred to as recommendation unlearning[2],as shown in Fig.1. 展开更多
关键词 large language models llms possess user interaction data large language models instruction tuning recommendation unlearning
原文传递
基于剪枝与后门遗忘的深度神经网络后门移除方法
8
作者 李学相 高亚飞 +2 位作者 夏辉丽 王超 刘明林 《郑州大学学报(工学版)》 北大核心 2026年第2期27-34,共8页
后门攻击对深度神经网络的安全性构成了严重威胁。现有的大多数后门防御方法依赖部分原始训练数据来移除模型中的后门,但在数据访问受限这一现实场景中,这些方法在移除模型后门时的效果不佳,并且对模型的原始精度产生较大影响。针对上... 后门攻击对深度神经网络的安全性构成了严重威胁。现有的大多数后门防御方法依赖部分原始训练数据来移除模型中的后门,但在数据访问受限这一现实场景中,这些方法在移除模型后门时的效果不佳,并且对模型的原始精度产生较大影响。针对上述问题,提出了一种基于剪枝和后门遗忘的无数据后门移除方法(DBR-PU)。首先,用所提方法分析模型神经元在合成数据集上的预激活分布差异,以此来定位可疑神经元;其次,通过对这些可疑神经元进行剪枝操作来降低后门对模型的影响;最后,使用对抗性后门遗忘策略来进一步消除模型对少量残留后门信息的内部响应。在CIFAR10和GTSRB数据集上对6种主流后门攻击方法进行实验,结果表明:在数据访问受限的条件下,所提方法在准确率上可以与最优的基准防御方法保持较小差距,并且在降低攻击成功率方面表现最好。 展开更多
关键词 深度神经网络 后门攻击 后门防御 预激活分布 对抗性后门遗忘
在线阅读 下载PDF
数据要素流通全流程隐私关键技术:现状、挑战与展望
9
作者 刘立伟 傅超豪 +3 位作者 孙泽堃 周耘 阮娜 蒋昌俊 《软件学报》 北大核心 2026年第1期301-325,共25页
近年来以大语言模型为代表的一系列数据驱动型AIGC应用深刻地改变了人们的生活范式,引起国家对数据流通、数据隐私等问题的高度重视.健全数据市场规范,完善数据要素流通机制成为数字经济时代下又一重大研究课题.但是现有数据隐私研究普... 近年来以大语言模型为代表的一系列数据驱动型AIGC应用深刻地改变了人们的生活范式,引起国家对数据流通、数据隐私等问题的高度重视.健全数据市场规范,完善数据要素流通机制成为数字经济时代下又一重大研究课题.但是现有数据隐私研究普遍聚焦于数据流通中的单一环节,并未展现数据流通的全貌,技术研究相对孤立,存在不兼容性等问题.因此数据服务提供商在实际生产活动中往往需要投入额外人力成本以进行全方位的数据隐私保护.聚焦数据流通问题,依据数据生命周期将流通全过程划分为3个阶段,对各阶段的隐私关键技术建立系统的分类体系,并对各领域的最新进展、未来挑战等问题进行深入剖析.以数据流通为载体,隐私技术为目标,涵盖数据流通全过程,有助于研究者快速建立对数据流通全流程隐私技术的系统认识,为后续研究建立完备的全流程数据流通隐私保护范式奠定基础. 展开更多
关键词 数据流通 数字水印 联邦学习 区块链 忘却学习
在线阅读 下载PDF
基于节点影响力的图遗忘学习近似最差遗忘集构造算法
10
作者 赵正彪 卢涵宇 丁红发 《计算机科学》 北大核心 2026年第3期64-77,共14页
图神经网络(Graph Neural Networks,GNNs)因其在社交网络、推荐系统等领域的广泛应用而备受关注。近年来,个人信息遗忘权、数据产权保护、数据使用权过期等原因产生的数据遗忘需求不断加剧,使得图遗忘学习、深度遗忘学习和大模型遗忘等... 图神经网络(Graph Neural Networks,GNNs)因其在社交网络、推荐系统等领域的广泛应用而备受关注。近年来,个人信息遗忘权、数据产权保护、数据使用权过期等原因产生的数据遗忘需求不断加剧,使得图遗忘学习、深度遗忘学习和大模型遗忘等遗忘学习成为人工智能领域的研究热点。然而,现有研究大多设置为随机遗忘,忽视了对数据所有者数据遗忘权的最大保障,忽视了构造更极端场景以对不同遗忘学习算法进行深度综合评估。为此,面向图遗忘学习,提出一种基于图数据节点影响力的近似最差遗忘集构造算法,以近似最优构造图遗忘学习的遗忘节点样本集合。该算法结合节点的训练损失和结构中心性对图数据训练样本的节点影响力进行排序,从中识别出最具影响力且最难遗忘的节点集,从模型效用影响和节点重要性两个方面综合优选遗忘节点集合。利用不同图神经网络模型、图数据集和多个图遗忘学习算法进行实验,所提算法能使图遗忘学习算法更有效地降低模型效用,相较于随机遗忘策略模型效用下降幅度达15%;同时,该算法显著增强了不同图遗忘学习算法在多个指标上的差异性,能够更有效地对遗忘学习算法进行多维度评估。 展开更多
关键词 图神经网络 遗忘学习 隐私保护 最差遗忘集 节点影响力
在线阅读 下载PDF
基于机械遗忘的部分域自适应
11
作者 吴嘉豪 彭力 杨杰龙 《计算机科学》 北大核心 2026年第3期173-180,共8页
域适应将知识从标签丰富的源领域转移到标签稀缺的目标领域,在减少目标领域数据标注需求的情况下,实现模型性能在目标领域的提升。作为一种更现实的扩展,部分域自适应放宽了源领域和目标领域完全共享标签空间的假设,并处理目标标签空间... 域适应将知识从标签丰富的源领域转移到标签稀缺的目标领域,在减少目标领域数据标注需求的情况下,实现模型性能在目标领域的提升。作为一种更现实的扩展,部分域自适应放宽了源领域和目标领域完全共享标签空间的假设,并处理目标标签空间是源标签空间子集的情况。所提出的机械遗忘方法,通过遗忘异常权重类别来帮助解决具有挑战性的部分域自适应问题。具体而言,该方法首先采用传统部分域适应方法作为初始化模型,同时通过类别权重机制识别出异常权重类别;然后根据异常权重类别筛选源域数据集并生成噪声样本数据集,进而对模型进行遗忘操作,解决源域和目标域标签空间不匹配的问题;最后利用伪标签技术,让模型进一步对齐目标域的特征分布,从而促进正迁移。在Office-31和Office-Home这两个公开的基准数据集上进行的大量实验表明,所提出的机械遗忘方法在与最新的部分域自适应方法的性能相近的同时,显著超过了传统的部分域适应方法。 展开更多
关键词 迁移学习 部分域自适应 机械遗忘 伪标签 负迁移
在线阅读 下载PDF
面向多类遗忘的模型加噪隐私保护方案
12
作者 彭维平 苏航羽 +2 位作者 平源 宋成 程梦娜 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第3期366-374,共9页
针对人工智能大模型隐私保护中多类遗忘时间开销大、效率低的问题,提出一种面向多类遗忘的子模型加噪隐私保护方案。将原始数据集分割为多个子数据集后训练子模型并聚合生成预训练模型;基于遗忘类数据集学习构建损失最大化噪声矩阵,结... 针对人工智能大模型隐私保护中多类遗忘时间开销大、效率低的问题,提出一种面向多类遗忘的子模型加噪隐私保护方案。将原始数据集分割为多个子数据集后训练子模型并聚合生成预训练模型;基于遗忘类数据集学习构建损失最大化噪声矩阵,结合保留类的部分数据集对模型参数进行单个训练周期的损害,使用保留类的部分数据集对模型进行修复。实验结果表明,提出的方案在确保模型对保留类数据集分类准确率的基础上,不仅实现了多类遗忘,还显著降低了时间开销、提高了遗忘效率。 展开更多
关键词 人工智能大模型 隐私保护 多类遗忘 噪声矩阵
在线阅读 下载PDF
国家数据安全视域下大语言模型“遗忘”评估体系与监管对策
13
作者 王骞 《工业信息安全》 2025年第5期6-12,共7页
在数据安全监管加强与“删除权”规定落地的背景下,大语言模型亟须具备可验证的“机器遗忘”能力。文章系统梳理现有批量与持续遗忘技术,指出评测理想化、攻击面忽视及指标单一导致的虚假合规风险,分析遗忘强度与模型性能的固有冲突以... 在数据安全监管加强与“删除权”规定落地的背景下,大语言模型亟须具备可验证的“机器遗忘”能力。文章系统梳理现有批量与持续遗忘技术,指出评测理想化、攻击面忽视及指标单一导致的虚假合规风险,分析遗忘强度与模型性能的固有冲突以及持续删除引发的累积震荡,揭示缺乏取证链、责任模糊和合规成本高等合规痛点。在此基础上,文章提出构建包含动态暗测与深层表征分析的国家级认证体系,发展梯度留痕与表示层擦除等可追溯算法,并推动开源标准化,辅以分级责任、正向激励与机读型删除元数据的协同治理,形成“评测—技术—政策”闭环,实现“删除彻底、验证有效、复现便捷、过程不可逆”的模型遗忘能力,为生成式人工智能的安全合规与可信发展奠定技术与制度基础。 展开更多
关键词 机器遗忘 大语言模型 数据安全 评测体系
在线阅读 下载PDF
联邦遗忘学习隐私安全与算法效率研究综述 被引量:2
14
作者 唐湘云 王伟 +4 位作者 翁彧 沈蒙 张焘 王伟 祝烈煌 《计算机学报》 北大核心 2025年第9期2064-2093,共30页
在数据驱动的人工智能应用迅猛发展的背景下,用户对其个人数据安全与隐私保护的需求持续提升。联邦学习作为一种分布式机器学习范式,通过共享模型参数而非原始数据来完成模型训练,缓解了用户数据的隐私泄露风险。然而,联邦学习仍难以满... 在数据驱动的人工智能应用迅猛发展的背景下,用户对其个人数据安全与隐私保护的需求持续提升。联邦学习作为一种分布式机器学习范式,通过共享模型参数而非原始数据来完成模型训练,缓解了用户数据的隐私泄露风险。然而,联邦学习仍难以满足用户从已训练模型中删除其个人数据的需求。为此,联邦遗忘学习被提出,旨在响应用户发起的数据遗忘请求,以擦除其数据对模型的影响,同时保持模型的有效性。但目前的联邦遗忘学习技术还存在隐私泄露隐患和数据安全问题,以及模型恢复开销过高的威胁。为深入探讨联邦遗忘学习技术在隐私安全和算法效率方面的研究现状,本文首先系统性地介绍了联邦遗忘学习的基本概念,并揭示了其所面临的隐私泄露风险高、模型性能难恢复、计算开销大和存储成本高四大核心挑战。随后,从隐私保护、模型恢复、计算效率和存储效率四个方面,详尽综述了联邦遗忘学习的研究进展,对相关方案进行了清晰的分类及对比总结,为后续研究提供了明确的理论与实践指导。最后,本文总结了联邦遗忘学习的实际应用,并对未来的研究方向进行了展望,以促进联邦遗忘学习在人工智能领域中的安全应用。 展开更多
关键词 联邦学习 联邦遗忘学习 隐私保护 人工智能安全 隐私攻击
在线阅读 下载PDF
基于自适应采样的机器遗忘方法 被引量:1
15
作者 何可 王建华 +1 位作者 于丹 陈永乐 《信息网络安全》 北大核心 2025年第4期630-639,共10页
随着人工智能技术的快速发展,智能系统在医疗、工业等多个领域得到广泛应用。然而,智能系统中存储的大量用户数据一旦遭受恶意攻击,将对用户隐私构成严重威胁。为保护用户数据隐私,许多国家已出台相关法律法规,以确保用户享有“被遗忘... 随着人工智能技术的快速发展,智能系统在医疗、工业等多个领域得到广泛应用。然而,智能系统中存储的大量用户数据一旦遭受恶意攻击,将对用户隐私构成严重威胁。为保护用户数据隐私,许多国家已出台相关法律法规,以确保用户享有“被遗忘权”。机器遗忘技术通常分为精确遗忘和近似遗忘两类,旨在通过调整模型参数,从已训练好的模型中消除特定数据的影响。精确遗忘方法利用剩余数据重新训练模型实现遗忘,但其计算成本较高;近似遗忘方法则通过少量参数更新实现遗忘,然而现有方法存在遗忘性能不足、遗忘时间过长等问题。文章提出一种基于自适应采样的机器遗忘方法,该方法先对模型训练过程中的梯度进行采样,随后利用少量梯度信息完成遗忘,具有广泛的适用性,可适配多种机器遗忘方法。实验结果表明,“先采样后遗忘”策略显著提升了近似遗忘性能,同时将精确遗忘时间减少了约22.9%,近似遗忘时间减少了约38.6%。 展开更多
关键词 机器遗忘 隐私保护 自适应采样 被遗忘权
在线阅读 下载PDF
机器遗忘综述 被引量:1
16
作者 李梓童 孟小峰 +1 位作者 王雷霞 郝新丽 《软件学报》 北大核心 2025年第4期1637-1664,共28页
近年来,机器学习在人们日常生活中应用愈发广泛,这些模型在历史数据上进行训练,预测未来行为,极大地便利了人们生活.然而,机器学习存在隐私泄露隐患:当用户不希望个人数据被使用时,单纯地把其数据从训练集中删去并不够,已训练好的模型... 近年来,机器学习在人们日常生活中应用愈发广泛,这些模型在历史数据上进行训练,预测未来行为,极大地便利了人们生活.然而,机器学习存在隐私泄露隐患:当用户不希望个人数据被使用时,单纯地把其数据从训练集中删去并不够,已训练好的模型仍包含用户信息,可能造成隐私泄露.为了解决这一问题,让机器学习模型“遗忘”该用户个人数据,最简单的方法是在不包含其数据的训练集上重新训练,此时得到的新模型必定不包含个人数据的信息.然而,重新训练往往代价较大,成本较高,由此产生“机器遗忘”的关键问题:能否以更低的代价,获取与重新训练模型尽可能相似的模型.对研究这一问题的文献进行梳理归纳,将已有机器遗忘方法分为基于训练的方法、基于编辑的方法和基于生成的方法这3类,介绍机器遗忘的度量指标,并对已有方法进行测试和评估,最后对机器遗忘作未来展望. 展开更多
关键词 机器学习 机器遗忘 深度学习 隐私保护
在线阅读 下载PDF
基于自适应模型剪枝的联邦遗忘学习方法研究
17
作者 马振国 和孜轩 +3 位作者 孙彦景 王博文 刘建春 徐宏力 《电子与信息学报》 北大核心 2025年第11期4515-4524,共10页
随着物联网(IoT)设备数量的指数级增长和《个人信息保护法》等法规的相继实施,联邦遗忘学习在边缘计算(EC)中已成为保障数据“被遗忘权”的关键技术。然而,边缘节点普遍存在的资源异构性—计算能力、存储容量和网络带宽等差异,导致基于... 随着物联网(IoT)设备数量的指数级增长和《个人信息保护法》等法规的相继实施,联邦遗忘学习在边缘计算(EC)中已成为保障数据“被遗忘权”的关键技术。然而,边缘节点普遍存在的资源异构性—计算能力、存储容量和网络带宽等差异,导致基于全局统一剪枝策略的类级遗忘方法(遗忘某类训练数据)面临训练效率下降的困境。为了应对上述挑战,该文针对类级遗忘场景,提出了一种基于自适应模型剪枝的联邦遗忘学习框架(FunAMP),通过降低节点之间的等待时间提高模型训练效率。首先,该文建立了模型训练时间、节点资源与模型剪枝比之间的定量关系,并据此给出自适应模型剪枝问题的形式化定义。随后,设计了一种基于贪心策略的剪枝比决策算法,根据每个节点的计算和通信资源为其分配合适的剪枝比,并分析该算法的近似比,为算法性能提供理论保证。接着,确立了一种基于词频-逆文频的相关性指标来衡量模型参数与目标类数据之间的关系,根据该指标和分配的剪枝比将与目标类数据相关的模型参数去除,从而在实现目标类数据遗忘的同时最大限度地降低模型训练时间。实验结果表明,FunAMP在达到相同准确率的情况下,相比现有方法最高可实现11.8倍的加速比。 展开更多
关键词 联邦遗忘学习 资源异构 自适应模型剪枝 相关性指标 性能分析
在线阅读 下载PDF
公开可验证的模型遗忘方案
18
作者 翁嘉思 辜燕云 +2 位作者 刘家男 李明 翁健 《计算机学报》 北大核心 2025年第2期477-496,共20页
全球数字化进程的加速伴随着数据主体信息失控现象日益显著。国内外数据安全相关法律相继出台,其中遗忘权(the Right to Be Forgotten)强调了数据主体拥有从数据使用方撤回其数据的权利。模型遗忘(Machine Unlearning)是机器学习领域践... 全球数字化进程的加速伴随着数据主体信息失控现象日益显著。国内外数据安全相关法律相继出台,其中遗忘权(the Right to Be Forgotten)强调了数据主体拥有从数据使用方撤回其数据的权利。模型遗忘(Machine Unlearning)是机器学习领域践行遗忘权的技术,允许模型拥有方(即数据使用方)从已训练的模型中遗忘原本训练数据的指定数据,以满足数据拥有方撤回其数据的需求。现有针对模型遗忘效果的验证方法通常假设存在一个从未使用过被遗忘数据的基准模型,并通过测量遗忘后模型和基准模型的参数分布或输出分布是否足够相似来完成验证。然而,在恶意攻击场景下,模型拥有方容易伪造遗忘后模型的参数和输出分布,且模型参数通常难以归因于特定的训练数据,导致验证方难以有效验证目标模型是否遗忘其数据。本文提出了一种新的公开可验证模型遗忘方案,该方案在数据拥有方和模型拥有方之间执行,并在模型拥有方出现恶意行为时,数据拥有方能够生成任意第三方可验证的不可否认凭证。具体地,数据拥有方先利用动态通用累加器来认证被授权使用的数据或删除不被授权使用的数据;随后,模型拥有方在公开可验证隐蔽模型下证明模型训练使用了被累加数据或没有使用不被累加数据;最后,数据拥有方验证证明的有效性,若发现模型拥有方使用了未授权数据,则其生成公开可验证的凭证来追责模型拥有方的不合法行为。实验评估了不同数据量下证明和验证的计算开销,同时评估了不同数据点删除对模型预测结果的影响。 展开更多
关键词 机器学习 数据安全 遗忘权 模型遗忘 可验证性
在线阅读 下载PDF
NLPShield:基于机器遗忘的文本后门攻击防御方法 被引量:1
19
作者 李炳佳 熊熙 《国外电子测量技术》 2025年第2期9-16,共8页
在自然语言处理(Natural Language Processing,NLP)领域,后门攻击已成为现代NLP应用的重大威胁,严重影响系统的安全性与可靠性。尽管文本领域已提出多种防御策略,但在不接触中毒数据集也不参与后门训练过程时,面对复杂的攻击场景,现有... 在自然语言处理(Natural Language Processing,NLP)领域,后门攻击已成为现代NLP应用的重大威胁,严重影响系统的安全性与可靠性。尽管文本领域已提出多种防御策略,但在不接触中毒数据集也不参与后门训练过程时,面对复杂的攻击场景,现有方法仍难以有效应对。为此,提出一种基于机器遗忘的文本后门攻击防御方法NLPShield。该方法仅需少量干净样本,通过基于错误标注的训练和干净神经元剪枝两个关键阶段,实现对文本后门攻击的有效防御。实验在SST-2和AGNews数据集上进行,结果显示,在保持较高干净准确率的情况下,NLPShield方法相较于现有最先进基线防御方法,平均能将攻击成功率降低24.83%。这表明NLPShield方法能显著提升多种后门攻击的防御效果,切实有效地缓解文本后门攻击。 展开更多
关键词 自然语言处理 机器遗忘 后门攻击 防御
原文传递
基于噪声注入的图类别遗忘框架
20
作者 胡真 杨哲 《小型微型计算机系统》 北大核心 2025年第6期1342-1348,共7页
在图神经网络模型的训练中会涉及大量的隐私数据,出于隐私和数据安全的考虑,图遗忘技术得到了快速发展.然而,现有图遗忘问题的研究大多依靠数据划分的方法,这将破坏节点间的连接关系,也有部分方法仍然赖于对待遗忘的数据进行分析,从而... 在图神经网络模型的训练中会涉及大量的隐私数据,出于隐私和数据安全的考虑,图遗忘技术得到了快速发展.然而,现有图遗忘问题的研究大多依靠数据划分的方法,这将破坏节点间的连接关系,也有部分方法仍然赖于对待遗忘的数据进行分析,从而带来数据泄露的风险和额外的计算开销.针对这些不足,本文提出一种全新的图类别遗忘框架.首先根据伪样本噪声生成策略对需要遗忘的数据类别生成对应的噪声,随后根据自适应邻域混合策略将生成的噪声对模型进行噪声注入和快速回忆操作.在不同数据集和图神经网络模型上的实验结果表明,与现有方法相比,该框架在实现了高效的类别级数据遗忘的同时,还能够在剩余类别上保持较高的准确率和较低的时间开销. 展开更多
关键词 机器遗忘 图遗忘 数据隐私安全 噪声注入
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部