期刊文献+
共找到389篇文章
< 1 2 20 >
每页显示 20 50 100
融合联邦学习与LSTM模型的用户行为数据隐私保护机制研究
1
作者 程宇 龚亮华 《自动化与仪表》 2026年第1期134-138,共5页
近年来,用户行为数据在各类智能系统中广泛应用,其敏感性和分布式存储特性对隐私保护提出更高要求。为实现有效建模与隐私防护协同,研究构建融合联邦学习与LSTM模型的用户行为数据建模机制,并通过差分隐私与安全聚合机制提升整体安全性... 近年来,用户行为数据在各类智能系统中广泛应用,其敏感性和分布式存储特性对隐私保护提出更高要求。为实现有效建模与隐私防护协同,研究构建融合联邦学习与LSTM模型的用户行为数据建模机制,并通过差分隐私与安全聚合机制提升整体安全性。在模型训练过程中,上传参数经拉普拉斯机制扰动处理,同时引入SecAgg协议实现多方加密聚合。实验结果显示,模型预测准确率达到87.6%,通信成本控制在每轮约1.3 MB,训练收敛速度较传统联邦平均方法提升14.2%。综合评估表明,该机制在数据隐私保护、模型精度与系统通信效率之间实现了良好平衡。 展开更多
关键词 联邦学习 长短期记忆网络 用户行为建模 数据隐私保护 安全多方计算
在线阅读 下载PDF
基于匹配的模型卸载边缘联邦学习方法
2
作者 顾永跟 张吕基 +1 位作者 吴小红 陶杰 《计算机应用研究》 北大核心 2025年第1期139-148,共10页
针对边缘计算环境下联邦学习中因资源异质性导致的“滞后者”效应等问题,提出基于匹配的模型卸载边缘联邦学习方法(Fed-MBMO)。该方法通过收集边缘设备的性能分析结果,将设备分别划分为强、弱客户端,考虑了模型训练的四个阶段时间占比,... 针对边缘计算环境下联邦学习中因资源异质性导致的“滞后者”效应等问题,提出基于匹配的模型卸载边缘联邦学习方法(Fed-MBMO)。该方法通过收集边缘设备的性能分析结果,将设备分别划分为强、弱客户端,考虑了模型训练的四个阶段时间占比,弱客户端通过冻结部分模型以节省在特征层上反向传播的时间,并将模型卸载至“强客户端”进行额外的训练,最后将强客户端模型的特征层与弱客户端的全连接层进行模型重构。为提高模型卸载效率,综合考虑模型特征层的相似度与任务完成时间构建了卸载成本矩阵,并将问题转换为迭代求解基于二部图的最优匹配问题,提出基于Kuhn-Munkres(KM)的模型卸载算法并进一步分析了Fed-MBMO算法的时间复杂度。实验结果表明,在资源与数据极端异质的情况下,该方法能够加速模型收敛,模型训练时间与FedAvg、FedUE和Aergia相比分别平均减少46.65%、12.66%、38.07%。实验结果证明了所提的Fed-MBMO算法能够有效解决“滞后者”效应问题并显著提高联邦学习效率。 展开更多
关键词 联邦学习 滞后者效应 模型卸载 强弱匹配 资源异质性 模型重构 边缘计算
在线阅读 下载PDF
经济增长的动力重估:工业与服务业的协同效应与非线性特征
3
作者 郭英彤 邓志鹏 《财经论丛(浙江财经大学学报)》 北大核心 2025年第9期39-48,共10页
本文基于2000—2023年中国省际分行业数据,通过扩展Feder模型并融合机器学习与面板回归方法,系统考察了工业与服务业对经济增长的差异化贡献及其作用机制。研究发现,工业通过技术进步和产业关联效应成为经济增长的重要驱动力;服务业在... 本文基于2000—2023年中国省际分行业数据,通过扩展Feder模型并融合机器学习与面板回归方法,系统考察了工业与服务业对经济增长的差异化贡献及其作用机制。研究发现,工业通过技术进步和产业关联效应成为经济增长的重要驱动力;服务业在经济增长中发挥着不可替代的作用,特别是金融业通过与工业的协同发展能够显著促进经济增长,而脱离实体经济的金融扩张则可能对经济增长产生抑制作用。本文还揭示了工业发展存在非线性特征,其边际贡献在跨越特定阈值后显著提升。基于实证结果,本文建议产业政策应统筹工业与服务业协同发展以优化资源配置效率,以及金融业需强化服务实体经济功能,促进产业良性互动。本研究为推动产业结构优化升级、实现经济高质量发展提供了理论与实证依据。 展开更多
关键词 经济增长 FEDER模型 机器学习 偏效应分析
在线阅读 下载PDF
基于联邦大模型的网络攻击检测方法研究
4
作者 康海燕 张义钒 王楠敏 《电子学报》 北大核心 2025年第6期1792-1804,共13页
为了解决真实Web应用攻击数据数量小、差异性大和攻击载荷多样化导致大模型训练效果差的问题,提出一种基于联邦大模型的网络攻击检测方法(Intrusion Detection methods based on Federal Large Language Model,FLLLMID).首先,提出一种... 为了解决真实Web应用攻击数据数量小、差异性大和攻击载荷多样化导致大模型训练效果差的问题,提出一种基于联邦大模型的网络攻击检测方法(Intrusion Detection methods based on Federal Large Language Model,FLLLMID).首先,提出一种面向大模型微调的联邦学习网络,服务器对客户端本地大模型通过增量数据训练产生的参数,进行增量聚合的方式,提高联邦学习中大模型的参数聚合效率以及避免网络流量数据暴露的问题;其次,基于大模型对代码的理解能力,提出面向应用层数据的攻击检测模型(CodeBERT-LSTM),通过对应用层数据报文进行分析,使用CodeBERT模型对有效字段进行向量编码后,结合长短期记忆网络(Long Short-Term Memory,LSTM)进行分类,实现对Web应用高效的攻击检测任务;最后,实验结果表明,FL-LLMID方法在面向应用层数据的攻击检测任务中准确率达到99.63%,与传统联邦学习相比,增量式学习的效率提升了12个百分点. 展开更多
关键词 联邦学习 大模型 长短期记忆网络 CodeBERT 网络攻击检测 增量聚合
在线阅读 下载PDF
面向云边个性化模型解耦的聚类联邦学习方法 被引量:2
5
作者 杜甜 陈星延 +2 位作者 寇纲 赵宇 许长桥 《计算机学报》 北大核心 2025年第2期407-432,共26页
联邦学习是一种前沿的分布式学习范式,该技术允许多个边缘客户端协作训练全局模型,而无需客户端共享数据至中央服务器,有效缓解了深度模型训练的“数据孤岛”和数据隐私安全问题。生成式人工智能的发展推动了更大规模的模型和数据集应用... 联邦学习是一种前沿的分布式学习范式,该技术允许多个边缘客户端协作训练全局模型,而无需客户端共享数据至中央服务器,有效缓解了深度模型训练的“数据孤岛”和数据隐私安全问题。生成式人工智能的发展推动了更大规模的模型和数据集应用,加剧了联邦学习所面临的现实挑战,特别是由客户端本地数据高度异构导致的训练效率低和通信成本高等问题。本文提出了一种基于云边模型解耦的联邦学习创新框架,FedCPMD,该框架通过为客户端动态选择最优个性化层来应对数据异质性。动机实验表明,具有异构数据分布的客户端在选用不同神经网络层作为个性化层时,其性能存在明显差异。基于此,本文设计了一种逐层知识化表征方法,通过独立量化每一层神经网络对最终模型效果的影响,实现对个性化层的选择。FedCPMD还引入了一种基于知识表征的客户端聚类策略,通过将具有相同选层结果的客户端聚类到同一集群,来提升异构联邦学习的模型性能。本文在九个真实数据集上开展实验,结果表明与现有十余种先进方案相比,FedCPMD具有明显优势。针对CIFAR100、CINIC10、SVHN和Tiny ImageNet等复杂数据集,FedCPMD在LeNet5架构上的准确率平均提升2.450%(α=0.1),在VGG11架构上平均提升3.963%(α=0.1)。 展开更多
关键词 聚类 个性化联邦学习 模型解耦 云边系统 绿色通信
在线阅读 下载PDF
电动机故障诊断联邦学习模型研究及技术应用
6
作者 周奇才 黄至恺 +2 位作者 钟小勇 卢浩 邱彦杰 《起重运输机械》 2025年第1期78-84,共7页
文中提出了一种基于深度学习以及联邦学习的电动机故障诊断模型。使用Transformer模型对电动机的运行数据进行分析以及故障诊断分类,在此基础上使用FedProx联邦学习算法,在多个客户端上使用不同的数据训练模型,并将训练后的模型上传到... 文中提出了一种基于深度学习以及联邦学习的电动机故障诊断模型。使用Transformer模型对电动机的运行数据进行分析以及故障诊断分类,在此基础上使用FedProx联邦学习算法,在多个客户端上使用不同的数据训练模型,并将训练后的模型上传到中央服务器进行聚合,使用聚合后的模型对设备进行故障诊断。实验结果表明,所提出的模型具有良好的性能,对数据的故障分类准确率满足电动机故障诊断的要求,同时联邦学习的方法有助于模型获得更多的数据特征,使得模型可以更好地进行故障诊断,同时对保护数据隐私也有一定作用。 展开更多
关键词 电动机 故障诊断 Transformer模型 联邦学习 联邦正则算法
在线阅读 下载PDF
解决联邦学习Non-IID问题的基础模型方法综述
7
作者 王鑫 陈坤 孙凌云 《计算机科学》 北大核心 2025年第12期302-313,共12页
联邦学习因具有隐私保护的天然特性,已经逐渐成为一个被广泛认可的分布式机器学习框架。但由于参与方数据分布的差异性,特别是呈现非独立同分布(Non-Independent and Identically Distributed,Non-IID)时,其面临着泛化性能不足、收敛性... 联邦学习因具有隐私保护的天然特性,已经逐渐成为一个被广泛认可的分布式机器学习框架。但由于参与方数据分布的差异性,特别是呈现非独立同分布(Non-Independent and Identically Distributed,Non-IID)时,其面临着泛化性能不足、收敛性能下降、数据倾斜等严峻挑战。用预训练基础模型缓解Non-IID问题作为一种新颖的方法,演变出了各种各样的解决方案。对此,从预训练基础模型的角度,对现有工作进行了综述。首先介绍了基础模型方法,对典型的基础模型编码结构进行对比分析。其次从修改输入、基础模型部分结构再训练,以及参数高效微调3个角度,提出了一种新的分类方法。最后探讨了该类工作的核心难题和未来研究方向。 展开更多
关键词 联邦学习 分布式系统 隐私计算 非独立同分布数据问题 基础模型
在线阅读 下载PDF
异质车联网数据的群联邦迁移学习共享方法研究
8
作者 康海燕 柯慧敏 邱晓英 《重庆理工大学学报(自然科学)》 北大核心 2025年第2期1-10,共10页
为了解决联邦学习在车联网中终端设备数据的异质性导致模型训练准确率不稳定和性能下降,以及车辆分布广泛,通信和计算资源有限的问题,提出一种数据类型和数据规模并行优化的群联邦迁移学习数据共享方法(swarm federated transfer learni... 为了解决联邦学习在车联网中终端设备数据的异质性导致模型训练准确率不稳定和性能下降,以及车辆分布广泛,通信和计算资源有限的问题,提出一种数据类型和数据规模并行优化的群联邦迁移学习数据共享方法(swarm federated transfer learning,SFTL)。提出基于高斯混合模型的共识设备组划分机制,通过对数据分布建模构建共识设备组,实现对异质性数据的有效管理和分析;面向划分的共识设备组,设计蜂群学习训练机制,加强相似设备组之间的协同学习过程;提出组间迁移学习机制,通过模型预训练法增量迁移不同共识设备组信息最小化模型差异,提高联邦模型聚合准确率。在公共数据集上的实验表明:与基线方法相比,SFTL模型训练准确率平均提高7%,通信时间平均降低10%。 展开更多
关键词 蜂群学习 联邦学习 车联网 高斯混合模型 迁移学习
在线阅读 下载PDF
面向联邦大语言模型训练的传输优化技术综述 被引量:3
9
作者 顿婧博 李卓 《计算机科学》 北大核心 2025年第1期42-55,共14页
随着人工智能技术的快速发展,各类大型语言模型不断涌现.但是专用大语言模型的用户及数据集大多具有隐私性和安全性要求,数据安全隐私问题亟待解决.在此背景下,联邦大语言模型应运而生并得到越来越多的关注.由于大型语言模型庞大的数据... 随着人工智能技术的快速发展,各类大型语言模型不断涌现.但是专用大语言模型的用户及数据集大多具有隐私性和安全性要求,数据安全隐私问题亟待解决.在此背景下,联邦大语言模型应运而生并得到越来越多的关注.由于大型语言模型庞大的数据量以及联邦学习的分布式架构,海量的参与节点与云服务器间进行大量的模型交换会产生较高的通信成本.为提升模型收敛速率,研究人员对面向联邦大语言模型训练的传输优化技术展开了研究.文章分析了联邦大语言模型所面临的挑战;综述了基于模型微调的传输优化方法、基于模型压缩的传输优化方法以及基于分布式并行处理的传输优化的优化问题;介绍了已有的开源联邦大语言模型以及所用到的传输优化技术,并对未来研究方向进行了展望. 展开更多
关键词 联邦学习 大语言模型 传输优化 通信开销 模型压缩
在线阅读 下载PDF
基于相似性的个性化联邦学习模型聚合框架 被引量:2
10
作者 武文媗 王灿 +2 位作者 黄静静 吴秋新 秦宇 《计算机应用研究》 北大核心 2025年第1期125-132,共8页
传统联邦学习中经过加权聚合得到的全局模型无法应对跨客户端的数据异构的问题。现有研究通过形成个性化模型应对,但个性化模型如何平衡全局的共性信息和本地的个性信息是一个挑战。针对上述问题,提出了一种个性化联邦学习模型聚合框架F... 传统联邦学习中经过加权聚合得到的全局模型无法应对跨客户端的数据异构的问题。现有研究通过形成个性化模型应对,但个性化模型如何平衡全局的共性信息和本地的个性信息是一个挑战。针对上述问题,提出了一种个性化联邦学习模型聚合框架FedPG(federated learning with personalized global model)。FedPG基于客户端模型的相似性,将归一化后的模型参数变化量的余弦相似度作为模型聚合的个性化权重,从而实现面向客户端的全局模型个性化聚合。通过引入平滑系数,该框架可以灵活地调整模型中共性信息和个性信息的比重。为了降低平滑系数的选择成本,进一步提出调度平滑系数的个性化联邦学习模型聚合框架FedPGS(federated learning with personalized global model and scheduled personalization)。在实验中,FedPG和FedPGS两个框架使得FedAvg、FedProto、FedProx算法在特征分布偏移的数据集上的准确率平均提升1.20~11.50百分点,且使得模型的准确率受恶意设备的影响更小。结果表明,FedPG和FedPGS框架在数据异构和存在恶意设备干扰的情况下能有效提升模型的准确率和鲁棒性。 展开更多
关键词 个性化联邦学习 余弦相似度 数据异构 模型聚合 恶意设备
在线阅读 下载PDF
面向海上无人系统的边缘模型协同与数据压缩算法 被引量:1
11
作者 姜俊 张家瑞 +1 位作者 潘吉龙 孙国林 《系统工程与电子技术》 北大核心 2025年第5期1718-1727,共10页
在海上环境中,无人系统可以通过边缘人工智能(artificial intelligence,AI)模型协同实现数据采集与边缘处理任务。面向通信环境差、通信带宽有限、通信链路易被干扰等问题,首先,从无人机AI模型协同的角度,提出一种联邦互蒸馏的模型协同... 在海上环境中,无人系统可以通过边缘人工智能(artificial intelligence,AI)模型协同实现数据采集与边缘处理任务。面向通信环境差、通信带宽有限、通信链路易被干扰等问题,首先,从无人机AI模型协同的角度,提出一种联邦互蒸馏的模型协同训练方法,以减少模型训练数据传输带宽要求。其次,从数据去冗余压缩的角度出发,提出一种数据差分动态压缩方法,以降低数据传输频次。仿真实验表明,所提出的联邦智能模型互蒸馏训练方法训练的模型性能明显优于分布式训练的模型的性能,且较之于集中式的模型训练方法节省大量通信带宽,提出的差分动态数据压缩方法能够大幅减少通信报文的长度与发送频率,适应于带宽受限的通信弱连接环境。 展开更多
关键词 通信弱连接 边缘模型协同 联邦互蒸馏 数据压缩
在线阅读 下载PDF
联邦学习框架下的大数据隐私保护算法研究
12
作者 颜廷法 《新乡学院学报》 2025年第3期53-57,67,共6页
在当前大数据时代,数据隐私保护问题日益凸显,对信息安全构成了严峻挑战。针对大数据环境下的数据隐私泄露问题,提出了一种创新的联邦学习框架下的隐私保护算法。通过Shamir门限秘密共享方案,实现了模型参数的安全共享,同时结合横向与... 在当前大数据时代,数据隐私保护问题日益凸显,对信息安全构成了严峻挑战。针对大数据环境下的数据隐私泄露问题,提出了一种创新的联邦学习框架下的隐私保护算法。通过Shamir门限秘密共享方案,实现了模型参数的安全共享,同时结合横向与纵向联邦学习策略,构建了一个既灵活又高效的隐私保护模型。在模型训练过程中,采用随机梯度下降算法对本地模型参数进行更新,并通过加密协议对更新的梯度进行加密,以保障数据在传输过程中的安全性。为了进一步提升隐私保护的强度,该算法还集成了差分隐私技术,通过添加适量的随机噪声,有效防止了数据的敏感信息泄露。实验结果表明通过在MedMNIST2数据集上的验证,该算法在降低信息损失率方面表现出色,证明了其在大数据隐私保护方面的实际应用潜力和效果。 展开更多
关键词 大数据隐私 联邦学习 加密协议 差分隐私 模型参数更新
在线阅读 下载PDF
联邦学习通信效率研究综述 被引量:3
13
作者 郑剑文 刘波 +1 位作者 林伟伟 谢家晨 《计算机科学》 北大核心 2025年第2期1-7,共7页
作为一种分布式机器学习范式,联邦学习(Federated Learning,FL)旨在在保护数据隐私的前提下,实现在多方数据上共同训练机器学习模型。在实际应用中,FL在每轮迭代中需要大量的通信来传输模型参数和梯度更新,从而提高通信效率,这是FL面临... 作为一种分布式机器学习范式,联邦学习(Federated Learning,FL)旨在在保护数据隐私的前提下,实现在多方数据上共同训练机器学习模型。在实际应用中,FL在每轮迭代中需要大量的通信来传输模型参数和梯度更新,从而提高通信效率,这是FL面临的一个重要挑战。文中主要介绍了FL中通信效率的重要性,并依据不同的侧重点将现有FL通信效率的研究分为客户端选择、模型压缩、网络拓扑重构以及多种技术结合等方法。在现有的FL通信效率研究的基础上,归纳并总结出通信效率在FL发展中面临的困难与挑战,探索FL通信效率未来的研究方向。 展开更多
关键词 联邦学习 通信效率 客户端选择 模型压缩 网络拓扑重构
在线阅读 下载PDF
基于剪枝的大模型联邦参数高效微调技术 被引量:1
14
作者 曾辉 熊诗雨 +1 位作者 狄永正 史红周 《计算机应用》 北大核心 2025年第3期715-724,共10页
随着数据隐私重要性的不断提升,用于下游任务的预训练基础模型(PFM)的微调变得愈发困难,这推动了基于PFM的联邦学习研究。然而,PFM给联邦学习系统带来了显著的挑战,特别是在本地计算和通信方面。因此,针对联邦学习的本地计算和聚合通信... 随着数据隐私重要性的不断提升,用于下游任务的预训练基础模型(PFM)的微调变得愈发困难,这推动了基于PFM的联邦学习研究。然而,PFM给联邦学习系统带来了显著的挑战,特别是在本地计算和通信方面。因此,针对联邦学习的本地计算和聚合通信这两个主要阶段,分别提出对应的解决方案,即本地高效微调模式和环形本地聚合模式。本地高效微调模式采用基于参数高效微调(PEFT)的模型剪枝算法以减轻本地计算和通信开销;环形本地聚合模式采用分布式的本地聚合方法取代中心化的聚合方法以提升聚合阶段的通信效率。实验结果表明,所提大模型联邦参数高效微调框架在最终性能和效率方面均表现良好。 展开更多
关键词 联邦学习 大模型 微调 参数高效微调 模型剪枝
在线阅读 下载PDF
基于联邦学习的BERT模型高效训练框架 被引量:1
15
作者 王鑫澳 陈珂 +2 位作者 寿黎但 骆歆远 陈刚 《软件学报》 北大核心 2025年第9期4110-4133,共24页
高质量的训练数据对于预训练语言模型(PLM)至关重要,但许多专业领域的数据因隐私问题而无法集中收集用于模型训练.借助联邦学习,可以在保护数据隐私的前提下完成模型训练.然而,联邦学习的客户端通常资源有限,无法完成预训练语言模型的训... 高质量的训练数据对于预训练语言模型(PLM)至关重要,但许多专业领域的数据因隐私问题而无法集中收集用于模型训练.借助联邦学习,可以在保护数据隐私的前提下完成模型训练.然而,联邦学习的客户端通常资源有限,无法完成预训练语言模型的训练.针对这一问题进行深入研究.首先,明确定义在资源有限前提下完成模型训练的问题,通过调整计算开销与通信开销来优化模型的训练效果.其次,介绍一种适用于联邦学习环境下的BERT模型高效训练框架——FedBT.该框架旨在实现BERT模型在联邦学习客户端上的训练,涵盖进一步预训练和下游任务微调两种场景.FedBT适应不同的应用场景,在客户端针对BERT模型的关键参数进行训练,并仅将更新的参数上传至服务器进行聚合.这种方法显著减少模型训练过程中的计算和通信成本.最后,在多个专业领域的数据集上进行充分的实验对比,进一步预训练场景下,FedBT框架可以降低客户端的训练开销与通信开销至原来的34.31%和7.04%,下游任务微调场景下,FedBT框架可以降低客户端的训练开销与通信开销至原来的48.26%和20.19%,并且均实现同传统联邦学习训练完整模型接近的精确度. 展开更多
关键词 联邦学习 预训练语言模型 进一步预训练 下游任务微调
在线阅读 下载PDF
基于联邦学习的政务未诉先办主题挖掘模型
16
作者 刘昕 李艳茹 +3 位作者 张春营 王海文 杨大伟 赵庆齐 《计算机工程与设计》 北大核心 2025年第7期1980-1989,共10页
为挖掘本地诉求预判未来民生问题、借鉴其它城市的历史经验发现潜在问题,提出一种基于联邦学习的KANR-Fed UCTMWI模型进行联合主题挖掘。提出句嵌入方法KANR,通过附加关键词和选取相似样本并替换同义词增强样本质量,提升本地诉求嵌入语... 为挖掘本地诉求预判未来民生问题、借鉴其它城市的历史经验发现潜在问题,提出一种基于联邦学习的KANR-Fed UCTMWI模型进行联合主题挖掘。提出句嵌入方法KANR,通过附加关键词和选取相似样本并替换同义词增强样本质量,提升本地诉求嵌入语义表示;基于联邦学习构建KANR-Fed UCTMWI,设计特征融合模块,各地市根据全局词典构建词袋表示并与嵌入表示加权融合作为模型输入,提出基于词语影响力的重构损失函数,依据全局词语影响力值过滤与主题无关词语。实验结果表明,该方法提升了主题一致性与多样性,助力政府实现未诉先办。 展开更多
关键词 联邦学习 数据挖掘 对比学习 句嵌入 主题模型 公众诉求 未诉先办
在线阅读 下载PDF
一种模型辅助的联邦强化学习多无人机路径规划方法 被引量:2
17
作者 陆音 刘金志 张珉 《电子与信息学报》 北大核心 2025年第5期1368-1380,共13页
针对多无人机在环境监测传感器网络、灾害应急通信节点等设备位置部分未知场景下的数据收集需求,该文提出一种模型辅助的联邦强化学习多无人机路径规划方法。在联邦学习框架下,通过结合最大熵强化学习与单调价值函数分解机制,引入动态... 针对多无人机在环境监测传感器网络、灾害应急通信节点等设备位置部分未知场景下的数据收集需求,该文提出一种模型辅助的联邦强化学习多无人机路径规划方法。在联邦学习框架下,通过结合最大熵强化学习与单调价值函数分解机制,引入动态熵温度参数和注意力机制,优化了多无人机协作的探索效率与策略稳定性。此外,设计了一种基于信道建模与位置估计的混合模拟环境构建方法,利用改进的粒子群算法快速估计未知设备位置,显著降低了真实环境交互成本。仿真结果表明,所提算法能够实现高效数据收集,相较于传统多智能体强化学习方法,数据收集率提升5.2%,路径长度减少7.7%,验证了所提算法的有效性和优越性。 展开更多
关键词 无人机 路径规划 强化学习 联邦学习 模型辅助
在线阅读 下载PDF
面向边缘智能的大模型研究进展 被引量:1
18
作者 王睿 张留洋 +1 位作者 高志涌 姜彤雲 《计算机研究与发展》 北大核心 2025年第10期2565-2582,共18页
随着大模型技术的迅猛发展,大模型在自然语言处理和计算机视觉等领域表现出卓越的性能,成为解决复杂问题的重要工具,并在科研和产业界引发了广泛关注.然而,当前基于云平台的大模型训练和推理方案面临诸多挑战,包括高昂的成本、有限的可... 随着大模型技术的迅猛发展,大模型在自然语言处理和计算机视觉等领域表现出卓越的性能,成为解决复杂问题的重要工具,并在科研和产业界引发了广泛关注.然而,当前基于云平台的大模型训练和推理方案面临诸多挑战,包括高昂的成本、有限的可扩展性和信息安全风险等.随着模型参数规模的不断扩大,对于低成本、高效训练和推理的需求愈发迫切.在端边侧进行大模型的协同训练和推理,可以显著降低延迟和带宽需求,同时增强数据隐私和操作效率,为大模型在多样化场景中的低成本应用提供关键技术支持,成为当前研究的热点之一.全面调研了面向边缘智能的大模型相关研究,主要从大模型边缘训练和推理2个角度对当前相关研究进行了深入分析和讨论.最后,提出了面向边缘智能的大模型技术发展所面临的挑战和未来展望,希望能促进学术界和产业界对面向边缘智能的大模型技术有更深入的了解和关注,并能够启发更多的学者深入开展研究. 展开更多
关键词 边缘智能 大模型 大模型联邦微调 边缘高效推理
在线阅读 下载PDF
6G内生智能无线大模型:安全、隐私、伦理和高能效
19
作者 李心怡 杨照辉 +3 位作者 黄崇文 陈晓明 许威 张朝阳 《移动通信》 2025年第1期59-66,共8页
鉴于大模型(或基础模型)越来越受到关注,例如生成式预训练模型(GPT)及其在各种计算任务中的应用,介绍了将大模型应用到无线通信领域产生的无线大模型。首先给出无线大模型的基本概念,并从安全、隐私、伦理和高能效四个方面对研究现状展... 鉴于大模型(或基础模型)越来越受到关注,例如生成式预训练模型(GPT)及其在各种计算任务中的应用,介绍了将大模型应用到无线通信领域产生的无线大模型。首先给出无线大模型的基本概念,并从安全、隐私、伦理和高能效四个方面对研究现状展开介绍。在安全方面,分析了投毒攻击、后门攻击等对无线大模型的威胁;针对隐私问题,介绍了差分隐私、联邦学习等技术在保护用户数据隐私中的应用;在高能效设计中,概述了模型压缩、数据选择等优化策略,以在性能与能耗间实现平衡。最后面向6G无线网络,给出了内生智能无线大模型的架构,强调其在云-边协同计算、语义通信和跨领域整合中的应用潜力。 展开更多
关键词 6G AI大模型 联邦学习 语义通信
在线阅读 下载PDF
面向无线联邦学习模型压缩的多维资源联合优化研究
20
作者 朱光照 朱晓荣 徐鼎 《物联网学报》 2025年第2期190-201,共12页
针对边缘计算场景中,资源受限和网络动态的终端设备参与联邦学习产生的巨大时延和能耗问题,基于云-边-端三层联邦学习架构提出了一种高效训练和绿色节能的联邦学习算法。首先,将模型压缩技术引入三层联邦学习结构中,对三层联邦学习的模... 针对边缘计算场景中,资源受限和网络动态的终端设备参与联邦学习产生的巨大时延和能耗问题,基于云-边-端三层联邦学习架构提出了一种高效训练和绿色节能的联邦学习算法。首先,将模型压缩技术引入三层联邦学习结构中,对三层联邦学习的模型收敛速率、训练时延和能耗进行理论分析。然后,根据理论分析结果进行问题建模,在一定的模型收敛速率下最小化全局模型训练时延和能耗,通过联合优化终端设备的发射功率、算力和模型压缩率,提高联邦学习的资源利用率。最后,将问题分解为3个优化子问题分别求解,设计了一种联合交替优化算法来获得原始问题的最优解。仿真结果表明,该算法可以适应大规模的边缘计算场景,在保证模型收敛速率的同时,与传统三层联邦学习算法相比,产生的时延和能耗分别减少了71.54%和48.76%,有效地降低了全局模型训练产生的时延和能耗。 展开更多
关键词 边缘计算 联邦学习 模型压缩 资源分配 收敛速率
在线阅读 下载PDF
上一页 1 2 20 下一页 到第
使用帮助 返回顶部