期刊文献+
共找到83篇文章
< 1 2 5 >
每页显示 20 50 100
Defending Federated Learning System from Poisoning Attacks via Efficient Unlearning
1
作者 Long Cai Ke Gu Jiaqi Lei 《Computers, Materials & Continua》 2025年第4期239-258,共20页
Large-scale neural networks-based federated learning(FL)has gained public recognition for its effective capabilities in distributed training.Nonetheless,the open system architecture inherent to federated learning syst... Large-scale neural networks-based federated learning(FL)has gained public recognition for its effective capabilities in distributed training.Nonetheless,the open system architecture inherent to federated learning systems raises concerns regarding their vulnerability to potential attacks.Poisoning attacks turn into a major menace to federated learning on account of their concealed property and potent destructive force.By altering the local model during routine machine learning training,attackers can easily contaminate the global model.Traditional detection and aggregation solutions mitigate certain threats,but they are still insufficient to completely eliminate the influence generated by attackers.Therefore,federated unlearning that can remove unreliable models while maintaining the accuracy of the global model has become a solution.Unfortunately some existing federated unlearning approaches are rather difficult to be applied in large neural network models because of their high computational expenses.Hence,we propose SlideFU,an efficient anti-poisoning attack federated unlearning framework.The primary concept of SlideFU is to employ sliding window to construct the training process,where all operations are confined within the window.We design a malicious detection scheme based on principal component analysis(PCA),which calculates the trust factors between compressed models in a low-cost way to eliminate unreliable models.After confirming that the global model is under attack,the system activates the federated unlearning process,calibrates the gradients based on the updated direction of the calibration gradients.Experiments on two public datasets demonstrate that our scheme can recover a robust model with extremely high efficiency. 展开更多
关键词 Federated learning malicious client detection model recovery machine unlearning
在线阅读 下载PDF
An overview of machine unlearning
2
作者 Chunxiao Li Haipeng Jiang +4 位作者 Jiankang Chen Yu Zhao Shuxuan Fu Fangming Jing Yu Guo 《High-Confidence Computing》 2025年第2期122-130,共9页
Nowadays,machine learning is widely used in various applications.Training a model requires huge amounts of data,but it can pose a threat to user privacy.With the growing concern for privacy,the“Right to be Forgotten... Nowadays,machine learning is widely used in various applications.Training a model requires huge amounts of data,but it can pose a threat to user privacy.With the growing concern for privacy,the“Right to be Forgotten”has been proposed,which means that users have the right to request that their personal information be removed from machine learning models.The emergence of machine unlearning is a response to this need.Implementing machine unlearning is not easy because simply deleting samples from a database does not allow the model to“forget”the data.Therefore,this paper summarises the definition of the machine unlearning formulation,process,deletion requests,design requirements and validation,algorithms,applications,and future perspectives,in the hope that it will help future researchers in machine unlearning. 展开更多
关键词 Machine unlearning unlearning definition unlearning requirements and validation unlearning algorithms
在线阅读 下载PDF
Ensuring User Privacy and Model Security via Machine Unlearning: A Review
3
作者 Yonghao Tang Zhiping Cai +2 位作者 Qiang Liu Tongqing Zhou Qiang Ni 《Computers, Materials & Continua》 SCIE EI 2023年第11期2645-2656,共12页
As an emerging discipline,machine learning has been widely used in artificial intelligence,education,meteorology and other fields.In the training of machine learning models,trainers need to use a large amount of pract... As an emerging discipline,machine learning has been widely used in artificial intelligence,education,meteorology and other fields.In the training of machine learning models,trainers need to use a large amount of practical data,which inevitably involves user privacy.Besides,by polluting the training data,a malicious adversary can poison the model,thus compromising model security.The data provider hopes that the model trainer can prove to them the confidentiality of the model.Trainer will be required to withdraw data when the trust collapses.In the meantime,trainers hope to forget the injected data to regain security when finding crafted poisoned data after the model training.Therefore,we focus on forgetting systems,the process of which we call machine unlearning,capable of forgetting specific data entirely and efficiently.In this paper,we present the first comprehensive survey of this realm.We summarize and categorize existing machine unlearning methods based on their characteristics and analyze the relation between machine unlearning and relevant fields(e.g.,inference attacks and data poisoning attacks).Finally,we briefly conclude the existing research directions. 展开更多
关键词 Machine learning machine unlearning privacy protection trusted data deletion
在线阅读 下载PDF
Learn to Unlearn for Transformative Learning:An Epistemological Look
4
作者 Jose Manuel Salum Tome 《Journal of Philosophy Study》 2021年第2期107-115,共9页
The present work corresponds to a reflection about several theories and approaches of the learning and their relevance in the training of social agents,reflection that emerges from the practice of the training,and att... The present work corresponds to a reflection about several theories and approaches of the learning and their relevance in the training of social agents,reflection that emerges from the practice of the training,and attending to the fact that the meaning of what it implies to learn and how it is that is learned is not at the center of the discussion in universities in Latin America,which emphasizes more what to teach rather than how to teach. 展开更多
关键词 LEARNING unlearning RELEARNING continuing education
在线阅读 下载PDF
要学会unlearn
5
作者 葛传椝 《语言教育》 1988年第1期2-3,共2页
“unlearn”从表面上看来是“learn”的反义词。既然“He learns English”是“他学习英语”,“She unlearnsEnglish”似乎就是“她不学习英语”。其实不然,“unlearn”并不是“不学习”,而是“把巳学到的不正确的东西改正过来”。
关键词 DOING unlearn FINLAND 选词 有错必纠 三十岁 我自己 一本 FRIENDS 地理书
在线阅读 下载PDF
In the Arms of Unconsciousness:Capitalism,Creative Economy,and the End of Rest in Gustavo Vinagre’s Unlearning to Sleep
6
作者 Diego Santos Vieira de Jesus 《Journal of Literature and Art Studies》 2021年第10期759-763,共5页
The aim of the article is to explore the relation among capitalism,creative economy,and the end of rest in Gustavo Vinagre’s movie Unlearning to Sleep.The main argument indicates that,in the context of the imperative... The aim of the article is to explore the relation among capitalism,creative economy,and the end of rest in Gustavo Vinagre’s movie Unlearning to Sleep.The main argument indicates that,in the context of the imperatives within the inhumane temporalities of the 24/7 society,sleep and rest may represent an inevitable and anomalous resistance to the demands of the capitalist order in which creative economy is immersed and exposed in the movie. 展开更多
关键词 CAPITALISM creative economy Gustavo Vinagre unlearning to sleep Brazilian cinema REST SLEEP
在线阅读 下载PDF
Towards efficient and effective unlearning of large language models for recommendation
7
作者 Hangyu WANG Jianghao LIN +4 位作者 Bo CHEN Yang YANG Ruiming TANG Weinan ZHANG Yong YU 《Frontiers of Computer Science》 2025年第3期119-121,共3页
1 Introduction Large Language Models(LLMs)possess massive parameters and are trained on vast datasets,demonstrating exceptional proficiency in various tasks.The remarkable advancements in LLMs also inspire the explora... 1 Introduction Large Language Models(LLMs)possess massive parameters and are trained on vast datasets,demonstrating exceptional proficiency in various tasks.The remarkable advancements in LLMs also inspire the exploration of leveraging LLMs as recommenders(LLMRec),whose effectiveness stems from extensive open-world knowledge and reasoning ability in LLMs[1].LLMRec obtains the recommendation ability through instruction tuning on the user interaction data.But in many cases,it is also crucial for LLMRec to forget specific user data,which is referred to as recommendation unlearning[2],as shown in Fig.1. 展开更多
关键词 large language models llms possess user interaction data large language models instruction tuning recommendation unlearning
原文传递
面向多类遗忘的模型加噪隐私保护方案
8
作者 彭维平 苏航羽 +2 位作者 平源 宋成 程梦娜 《重庆邮电大学学报(自然科学版)》 北大核心 2025年第3期366-374,共9页
针对人工智能大模型隐私保护中多类遗忘时间开销大、效率低的问题,提出一种面向多类遗忘的子模型加噪隐私保护方案。将原始数据集分割为多个子数据集后训练子模型并聚合生成预训练模型;基于遗忘类数据集学习构建损失最大化噪声矩阵,结... 针对人工智能大模型隐私保护中多类遗忘时间开销大、效率低的问题,提出一种面向多类遗忘的子模型加噪隐私保护方案。将原始数据集分割为多个子数据集后训练子模型并聚合生成预训练模型;基于遗忘类数据集学习构建损失最大化噪声矩阵,结合保留类的部分数据集对模型参数进行单个训练周期的损害,使用保留类的部分数据集对模型进行修复。实验结果表明,提出的方案在确保模型对保留类数据集分类准确率的基础上,不仅实现了多类遗忘,还显著降低了时间开销、提高了遗忘效率。 展开更多
关键词 人工智能大模型 隐私保护 多类遗忘 噪声矩阵
在线阅读 下载PDF
国家数据安全视域下大语言模型“遗忘”评估体系与监管对策
9
作者 王骞 《工业信息安全》 2025年第5期6-12,共7页
在数据安全监管加强与“删除权”规定落地的背景下,大语言模型亟须具备可验证的“机器遗忘”能力。文章系统梳理现有批量与持续遗忘技术,指出评测理想化、攻击面忽视及指标单一导致的虚假合规风险,分析遗忘强度与模型性能的固有冲突以... 在数据安全监管加强与“删除权”规定落地的背景下,大语言模型亟须具备可验证的“机器遗忘”能力。文章系统梳理现有批量与持续遗忘技术,指出评测理想化、攻击面忽视及指标单一导致的虚假合规风险,分析遗忘强度与模型性能的固有冲突以及持续删除引发的累积震荡,揭示缺乏取证链、责任模糊和合规成本高等合规痛点。在此基础上,文章提出构建包含动态暗测与深层表征分析的国家级认证体系,发展梯度留痕与表示层擦除等可追溯算法,并推动开源标准化,辅以分级责任、正向激励与机读型删除元数据的协同治理,形成“评测—技术—政策”闭环,实现“删除彻底、验证有效、复现便捷、过程不可逆”的模型遗忘能力,为生成式人工智能的安全合规与可信发展奠定技术与制度基础。 展开更多
关键词 机器遗忘 大语言模型 数据安全 评测体系
在线阅读 下载PDF
联邦遗忘学习隐私安全与算法效率研究综述 被引量:1
10
作者 唐湘云 王伟 +4 位作者 翁彧 沈蒙 张焘 王伟 祝烈煌 《计算机学报》 北大核心 2025年第9期2064-2093,共30页
在数据驱动的人工智能应用迅猛发展的背景下,用户对其个人数据安全与隐私保护的需求持续提升。联邦学习作为一种分布式机器学习范式,通过共享模型参数而非原始数据来完成模型训练,缓解了用户数据的隐私泄露风险。然而,联邦学习仍难以满... 在数据驱动的人工智能应用迅猛发展的背景下,用户对其个人数据安全与隐私保护的需求持续提升。联邦学习作为一种分布式机器学习范式,通过共享模型参数而非原始数据来完成模型训练,缓解了用户数据的隐私泄露风险。然而,联邦学习仍难以满足用户从已训练模型中删除其个人数据的需求。为此,联邦遗忘学习被提出,旨在响应用户发起的数据遗忘请求,以擦除其数据对模型的影响,同时保持模型的有效性。但目前的联邦遗忘学习技术还存在隐私泄露隐患和数据安全问题,以及模型恢复开销过高的威胁。为深入探讨联邦遗忘学习技术在隐私安全和算法效率方面的研究现状,本文首先系统性地介绍了联邦遗忘学习的基本概念,并揭示了其所面临的隐私泄露风险高、模型性能难恢复、计算开销大和存储成本高四大核心挑战。随后,从隐私保护、模型恢复、计算效率和存储效率四个方面,详尽综述了联邦遗忘学习的研究进展,对相关方案进行了清晰的分类及对比总结,为后续研究提供了明确的理论与实践指导。最后,本文总结了联邦遗忘学习的实际应用,并对未来的研究方向进行了展望,以促进联邦遗忘学习在人工智能领域中的安全应用。 展开更多
关键词 联邦学习 联邦遗忘学习 隐私保护 人工智能安全 隐私攻击
在线阅读 下载PDF
机器遗忘综述 被引量:1
11
作者 李梓童 孟小峰 +1 位作者 王雷霞 郝新丽 《软件学报》 北大核心 2025年第4期1637-1664,共28页
近年来,机器学习在人们日常生活中应用愈发广泛,这些模型在历史数据上进行训练,预测未来行为,极大地便利了人们生活.然而,机器学习存在隐私泄露隐患:当用户不希望个人数据被使用时,单纯地把其数据从训练集中删去并不够,已训练好的模型... 近年来,机器学习在人们日常生活中应用愈发广泛,这些模型在历史数据上进行训练,预测未来行为,极大地便利了人们生活.然而,机器学习存在隐私泄露隐患:当用户不希望个人数据被使用时,单纯地把其数据从训练集中删去并不够,已训练好的模型仍包含用户信息,可能造成隐私泄露.为了解决这一问题,让机器学习模型“遗忘”该用户个人数据,最简单的方法是在不包含其数据的训练集上重新训练,此时得到的新模型必定不包含个人数据的信息.然而,重新训练往往代价较大,成本较高,由此产生“机器遗忘”的关键问题:能否以更低的代价,获取与重新训练模型尽可能相似的模型.对研究这一问题的文献进行梳理归纳,将已有机器遗忘方法分为基于训练的方法、基于编辑的方法和基于生成的方法这3类,介绍机器遗忘的度量指标,并对已有方法进行测试和评估,最后对机器遗忘作未来展望. 展开更多
关键词 机器学习 机器遗忘 深度学习 隐私保护
在线阅读 下载PDF
基于自适应采样的机器遗忘方法
12
作者 何可 王建华 +1 位作者 于丹 陈永乐 《信息网络安全》 北大核心 2025年第4期630-639,共10页
随着人工智能技术的快速发展,智能系统在医疗、工业等多个领域得到广泛应用。然而,智能系统中存储的大量用户数据一旦遭受恶意攻击,将对用户隐私构成严重威胁。为保护用户数据隐私,许多国家已出台相关法律法规,以确保用户享有“被遗忘... 随着人工智能技术的快速发展,智能系统在医疗、工业等多个领域得到广泛应用。然而,智能系统中存储的大量用户数据一旦遭受恶意攻击,将对用户隐私构成严重威胁。为保护用户数据隐私,许多国家已出台相关法律法规,以确保用户享有“被遗忘权”。机器遗忘技术通常分为精确遗忘和近似遗忘两类,旨在通过调整模型参数,从已训练好的模型中消除特定数据的影响。精确遗忘方法利用剩余数据重新训练模型实现遗忘,但其计算成本较高;近似遗忘方法则通过少量参数更新实现遗忘,然而现有方法存在遗忘性能不足、遗忘时间过长等问题。文章提出一种基于自适应采样的机器遗忘方法,该方法先对模型训练过程中的梯度进行采样,随后利用少量梯度信息完成遗忘,具有广泛的适用性,可适配多种机器遗忘方法。实验结果表明,“先采样后遗忘”策略显著提升了近似遗忘性能,同时将精确遗忘时间减少了约22.9%,近似遗忘时间减少了约38.6%。 展开更多
关键词 机器遗忘 隐私保护 自适应采样 被遗忘权
在线阅读 下载PDF
基于自适应模型剪枝的联邦遗忘学习方法研究
13
作者 马振国 和孜轩 +3 位作者 孙彦景 王博文 刘建春 徐宏力 《电子与信息学报》 北大核心 2025年第11期4515-4524,共10页
随着物联网(IoT)设备数量的指数级增长和《个人信息保护法》等法规的相继实施,联邦遗忘学习在边缘计算(EC)中已成为保障数据“被遗忘权”的关键技术。然而,边缘节点普遍存在的资源异构性—计算能力、存储容量和网络带宽等差异,导致基于... 随着物联网(IoT)设备数量的指数级增长和《个人信息保护法》等法规的相继实施,联邦遗忘学习在边缘计算(EC)中已成为保障数据“被遗忘权”的关键技术。然而,边缘节点普遍存在的资源异构性—计算能力、存储容量和网络带宽等差异,导致基于全局统一剪枝策略的类级遗忘方法(遗忘某类训练数据)面临训练效率下降的困境。为了应对上述挑战,该文针对类级遗忘场景,提出了一种基于自适应模型剪枝的联邦遗忘学习框架(FunAMP),通过降低节点之间的等待时间提高模型训练效率。首先,该文建立了模型训练时间、节点资源与模型剪枝比之间的定量关系,并据此给出自适应模型剪枝问题的形式化定义。随后,设计了一种基于贪心策略的剪枝比决策算法,根据每个节点的计算和通信资源为其分配合适的剪枝比,并分析该算法的近似比,为算法性能提供理论保证。接着,确立了一种基于词频-逆文频的相关性指标来衡量模型参数与目标类数据之间的关系,根据该指标和分配的剪枝比将与目标类数据相关的模型参数去除,从而在实现目标类数据遗忘的同时最大限度地降低模型训练时间。实验结果表明,FunAMP在达到相同准确率的情况下,相比现有方法最高可实现11.8倍的加速比。 展开更多
关键词 联邦遗忘学习 资源异构 自适应模型剪枝 相关性指标 性能分析
在线阅读 下载PDF
公开可验证的模型遗忘方案
14
作者 翁嘉思 辜燕云 +2 位作者 刘家男 李明 翁健 《计算机学报》 北大核心 2025年第2期477-496,共20页
全球数字化进程的加速伴随着数据主体信息失控现象日益显著。国内外数据安全相关法律相继出台,其中遗忘权(the Right to Be Forgotten)强调了数据主体拥有从数据使用方撤回其数据的权利。模型遗忘(Machine Unlearning)是机器学习领域践... 全球数字化进程的加速伴随着数据主体信息失控现象日益显著。国内外数据安全相关法律相继出台,其中遗忘权(the Right to Be Forgotten)强调了数据主体拥有从数据使用方撤回其数据的权利。模型遗忘(Machine Unlearning)是机器学习领域践行遗忘权的技术,允许模型拥有方(即数据使用方)从已训练的模型中遗忘原本训练数据的指定数据,以满足数据拥有方撤回其数据的需求。现有针对模型遗忘效果的验证方法通常假设存在一个从未使用过被遗忘数据的基准模型,并通过测量遗忘后模型和基准模型的参数分布或输出分布是否足够相似来完成验证。然而,在恶意攻击场景下,模型拥有方容易伪造遗忘后模型的参数和输出分布,且模型参数通常难以归因于特定的训练数据,导致验证方难以有效验证目标模型是否遗忘其数据。本文提出了一种新的公开可验证模型遗忘方案,该方案在数据拥有方和模型拥有方之间执行,并在模型拥有方出现恶意行为时,数据拥有方能够生成任意第三方可验证的不可否认凭证。具体地,数据拥有方先利用动态通用累加器来认证被授权使用的数据或删除不被授权使用的数据;随后,模型拥有方在公开可验证隐蔽模型下证明模型训练使用了被累加数据或没有使用不被累加数据;最后,数据拥有方验证证明的有效性,若发现模型拥有方使用了未授权数据,则其生成公开可验证的凭证来追责模型拥有方的不合法行为。实验评估了不同数据量下证明和验证的计算开销,同时评估了不同数据点删除对模型预测结果的影响。 展开更多
关键词 机器学习 数据安全 遗忘权 模型遗忘 可验证性
在线阅读 下载PDF
基于噪声注入的图类别遗忘框架
15
作者 胡真 杨哲 《小型微型计算机系统》 北大核心 2025年第6期1342-1348,共7页
在图神经网络模型的训练中会涉及大量的隐私数据,出于隐私和数据安全的考虑,图遗忘技术得到了快速发展.然而,现有图遗忘问题的研究大多依靠数据划分的方法,这将破坏节点间的连接关系,也有部分方法仍然赖于对待遗忘的数据进行分析,从而... 在图神经网络模型的训练中会涉及大量的隐私数据,出于隐私和数据安全的考虑,图遗忘技术得到了快速发展.然而,现有图遗忘问题的研究大多依靠数据划分的方法,这将破坏节点间的连接关系,也有部分方法仍然赖于对待遗忘的数据进行分析,从而带来数据泄露的风险和额外的计算开销.针对这些不足,本文提出一种全新的图类别遗忘框架.首先根据伪样本噪声生成策略对需要遗忘的数据类别生成对应的噪声,随后根据自适应邻域混合策略将生成的噪声对模型进行噪声注入和快速回忆操作.在不同数据集和图神经网络模型上的实验结果表明,与现有方法相比,该框架在实现了高效的类别级数据遗忘的同时,还能够在剩余类别上保持较高的准确率和较低的时间开销. 展开更多
关键词 机器遗忘 图遗忘 数据隐私安全 噪声注入
在线阅读 下载PDF
NLPShield:基于机器遗忘的文本后门攻击防御方法
16
作者 李炳佳 熊熙 《国外电子测量技术》 2025年第2期9-16,共8页
在自然语言处理(Natural Language Processing,NLP)领域,后门攻击已成为现代NLP应用的重大威胁,严重影响系统的安全性与可靠性。尽管文本领域已提出多种防御策略,但在不接触中毒数据集也不参与后门训练过程时,面对复杂的攻击场景,现有... 在自然语言处理(Natural Language Processing,NLP)领域,后门攻击已成为现代NLP应用的重大威胁,严重影响系统的安全性与可靠性。尽管文本领域已提出多种防御策略,但在不接触中毒数据集也不参与后门训练过程时,面对复杂的攻击场景,现有方法仍难以有效应对。为此,提出一种基于机器遗忘的文本后门攻击防御方法NLPShield。该方法仅需少量干净样本,通过基于错误标注的训练和干净神经元剪枝两个关键阶段,实现对文本后门攻击的有效防御。实验在SST-2和AGNews数据集上进行,结果显示,在保持较高干净准确率的情况下,NLPShield方法相较于现有最先进基线防御方法,平均能将攻击成功率降低24.83%。这表明NLPShield方法能显著提升多种后门攻击的防御效果,切实有效地缓解文本后门攻击。 展开更多
关键词 自然语言处理 机器遗忘 后门攻击 防御
原文传递
组织忘记、节俭式创新与企业绩效——基于绿色发展的驱动效应
17
作者 陶克涛 任静 蒋畅畅 《经济与管理研究》 北大核心 2025年第11期110-126,共17页
在碳中和转型背景下,企业如何通过认知重构突破传统路径依赖,以组织忘记驱动低碳创新并提升绩效,成为实现绿色发展的重要议题。本文基于组织学习理论和资源基础理论,选取213家企业样本数据,深入探究组织忘记对企业绩效的作用机理。研究... 在碳中和转型背景下,企业如何通过认知重构突破传统路径依赖,以组织忘记驱动低碳创新并提升绩效,成为实现绿色发展的重要议题。本文基于组织学习理论和资源基础理论,选取213家企业样本数据,深入探究组织忘记对企业绩效的作用机理。研究结果显示:组织忘记通过摒弃非环保惯例与实施环保措施促进资源节俭式创新;节俭式创新作为中介变量,在经济绩效、社会绩效与环境绩效提升中发挥差异化传导效应;组织忘记通过驱动“低成本—高质量—低环境足迹”的节俭式创新,实现企业多维绩效协同优化。本文的研究为“双碳”目标下企业绿色转型提供了“认知—行为—绩效”的系统框架,揭示了企业在追求绿色转型过程中面临的微观传导机制,进而助力企业实现绿色可持续发展目标。 展开更多
关键词 组织忘记 节俭式创新 企业绩效 组织学习 绿色发展
在线阅读 下载PDF
组织韧性对新能源汽车企业商业生态优势的影响——组织忘记与组织创造力的链式中介作用
18
作者 谢雅萍 陈睿君 李美玲 《科技进步与对策》 北大核心 2025年第18期108-117,共10页
具备商业生态优势是新能源汽车企业在智能化竞争中胜出的关键,跳出原有经验和能力陷阱实现自我革命,是新能源汽车企业构筑商业生态优势的重要路径。基于动态能力理论,以386家新能源汽车企业为研究对象,采用层次回归分析和Bootstrap方法... 具备商业生态优势是新能源汽车企业在智能化竞争中胜出的关键,跳出原有经验和能力陷阱实现自我革命,是新能源汽车企业构筑商业生态优势的重要路径。基于动态能力理论,以386家新能源汽车企业为研究对象,采用层次回归分析和Bootstrap方法探究组织韧性如何驱动新能源汽车企业构筑商业生态优势。结果发现:组织韧性是驱动新能源汽车企业构筑商业生态优势的关键因素,组织忘记、组织创造力在其中发挥链式中介作用。结论可揭示组织韧性对新能源汽车企业商业生态优势的影响机制,为新能源汽车企业构筑商业生态优势提供实践指引。 展开更多
关键词 组织韧性 组织忘记 组织创造力 商业生态优势
在线阅读 下载PDF
数字技术可供性与数字创新绩效:双元创新能力的中介作用与组织忘却学习的调节效应
19
作者 曹勇 田瑞晨 +1 位作者 陈炳轩 何颖 《科学学与科学技术管理》 北大核心 2025年第3期96-107,共12页
如何有效利用数字技术来提升创新绩效已成为数智时代企业面临的重要问题。基于资源基础观和组织忘却学习理论,通过对468家制造企业的大样本调查数据实证分析了数字技术可供性对企业数字创新绩效的影响机理,以及双元创新能力的中介作用... 如何有效利用数字技术来提升创新绩效已成为数智时代企业面临的重要问题。基于资源基础观和组织忘却学习理论,通过对468家制造企业的大样本调查数据实证分析了数字技术可供性对企业数字创新绩效的影响机理,以及双元创新能力的中介作用与组织忘却学习的调节效应。结果表明:数字技术可供性(积累可供性、变异可供性)对企业数字创新绩效有正向影响;利用式创新能力在数字技术可供性与数字创新绩效之间具有中介作用,而探索式创新能力仅在变异可供性和数字创新绩效之间起中介作用;组织忘却学习正向调节了数字技术可供性和利用式创新能力之间的关系。 展开更多
关键词 数字技术可供性 双元创新能力 组织忘却学习 数字创新绩效
原文传递
基于投毒攻击策略的图像保护方法
20
作者 李卓奇 赵利辉 《计算机与现代化》 2025年第5期41-47,共7页
针对图像易被滥用和侵犯用户权益的问题,本文提出一种基于投毒攻击策略的图像保护方法。该方法在图像数据中嵌入扰动生成中毒数据,在不影响原图像视觉质量的前提下,显著降低以此作为训练数据的深度学习模型性能。利用图像识别以及特征... 针对图像易被滥用和侵犯用户权益的问题,本文提出一种基于投毒攻击策略的图像保护方法。该方法在图像数据中嵌入扰动生成中毒数据,在不影响原图像视觉质量的前提下,显著降低以此作为训练数据的深度学习模型性能。利用图像识别以及特征提取技术,获取目标图像类别的主导特征作为模型识别分类的依据,将其作为扰动添加到原始数据集中,从像素和特征2个层面对扰动进行约束。在CIFAR-100和ImageNet-100上的实验结果表明投毒攻击策略生成的中毒图像能有效降低多种常见的深度学习模型的分类准确率。 展开更多
关键词 投毒攻击 图像特征 图像加密 深度学习模型 不可学习示例
在线阅读 下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部