期刊文献+
共找到167篇文章
< 1 2 9 >
每页显示 20 50 100
Design and Implementation of A Dynamic Content Cache Module for Web Server 被引量:1
1
作者 LIU Dan GUO Cheng-cheng ZHANG Li 《Wuhan University Journal of Natural Sciences》 EI CAS 2004年第5期828-834,共7页
Web offers a very convenient way to access remote information resources,an important measurement of evaluating Web services quality is how long it takes to search and get information.By caching the Web server’s dynam... Web offers a very convenient way to access remote information resources,an important measurement of evaluating Web services quality is how long it takes to search and get information.By caching the Web server’s dynamic content,it can avoid repeated queries for database and reduce the access frequency of original resources,thus to improve the speed of server’s response.This paper describes the concept,advantages,principles and concrete realization procedure of a dynamic content cache module for Web server. 展开更多
关键词 dynamic content caching network acceleration apache module
在线阅读 下载PDF
Intelligent Dynamic Aging Approaches in Web Proxy Cache Replacement
2
作者 Waleed Ali Siti Mariyam Shamsuddin 《Journal of Intelligent Learning Systems and Applications》 2015年第4期117-127,共11页
One of commonly used approach to enhance the Web performance is Web proxy caching technique. In Web proxy caching, Least-Frequently-Used-Dynamic-Aging (LFU-DA) is one of the common proxy cache replacement methods, whi... One of commonly used approach to enhance the Web performance is Web proxy caching technique. In Web proxy caching, Least-Frequently-Used-Dynamic-Aging (LFU-DA) is one of the common proxy cache replacement methods, which is widely used in Web proxy cache management. LFU-DA accomplishes a superior byte hit ratio compared to other Web proxy cache replacement algorithms. However, LFU-DA may suffer in hit ratio measure. Therefore, in this paper, LFU-DA is enhanced using popular supervised machine learning techniques such as a support vector machine (SVM), a naive Bayes classifier (NB) and a decision tree (C4.5). SVM, NB and C4.5 are trained from Web proxy logs files and then intelligently incorporated with LFU-DA to form Intelligent Dynamic- Aging (DA) approaches. The simulation results revealed that the proposed intelligent Dynamic- Aging approaches considerably improved the performances in terms of hit and byte hit ratio of the conventional LFU-DA on a range of real datasets. 展开更多
关键词 cache REPLACEMENT Web PROXY SERVER dynamic-Aging APPROACHES Machine Learning
在线阅读 下载PDF
静态物化视图的动态Cache优化算法 被引量:4
3
作者 张柏礼 孙志挥 +2 位作者 周晓云 杨宜东 朱玉全 《软件学报》 EI CSCD 北大核心 2006年第5期1213-1221,共9页
针对静态物化视图集动态适应能力的不足,提出一种动态cache优化算法DCO(dynamiccacheoptimization).它在保持静态算法获取最优物化集能力的基础上,将cache机制直观、快速的动态特性结合进来,以提高数据仓库的动态自适应性能.在cache机... 针对静态物化视图集动态适应能力的不足,提出一种动态cache优化算法DCO(dynamiccacheoptimization).它在保持静态算法获取最优物化集能力的基础上,将cache机制直观、快速的动态特性结合进来,以提高数据仓库的动态自适应性能.在cache机制具体实现中提出了一种新颖的空间申请方法,可以充分利用系统剩余空间提高查询响应性能.实验结果在表明算法有效、可行的同时,也显示出该算法可以在一定程度上克服静态物化集存在的空间-性能饱和效应(space-performancesaturationeffect,简称SPSE),使通过增加物化空间进一步提高数据仓库对查询的响应速度成为可能. 展开更多
关键词 数据仓库 物化视图 动态cache
在线阅读 下载PDF
ARP:同时多线程处理器中共享Cache自适应运行时划分机制 被引量:3
4
作者 隋秀峰 吴俊敏 陈国良 《计算机研究与发展》 EI CSCD 北大核心 2008年第7期1269-1277,共9页
同时多线程是一种延迟容忍的体系结构,采用共享的二级Cache,在每个周期内可以执行多个线程的多条指令,这就会增加对存储层次的压力.文中主要研究了SMT处理器中多个并发执行的线程之间共享Cache的划分问题,尤其是Cache共享中的公平性问... 同时多线程是一种延迟容忍的体系结构,采用共享的二级Cache,在每个周期内可以执行多个线程的多条指令,这就会增加对存储层次的压力.文中主要研究了SMT处理器中多个并发执行的线程之间共享Cache的划分问题,尤其是Cache共享中的公平性问题以及它和吞吐量之间的关系.传统的LRU策略会根据线程的需要隐式地划分共享Cache,给具有较高需求的线程分配较多的Cache空间,对Cache的管理具有不公平性,从而会引起线程饿死、优先级反转等问题.实现了一种自适应、运行时划分机制(ARP)来管理共享Cache.ARP采用公平性作为划分的度量,并且使用动态划分算法来优化公平性,该算法具有易于实现,所需剖析较少的特点,硬件上使用经典的监控器来收集每个线程的栈距离信息,其存储开销不到0.25%.实验结果显示,与基于LRU的Cache划分相比,ARP可以将一个2路SMT处理器的公平性提高2.26倍,而将吞吐量平均提高14.75%. 展开更多
关键词 同时多线程 共享高速缓存 动态划分 动态组采样 高速缓存公平性
在线阅读 下载PDF
动态二进制翻译中的代码Cache管理策略 被引量:5
5
作者 谢海斌 武成岗 +1 位作者 张兆庆 冯晓兵 《计算机工程》 EI CAS CSCD 北大核心 2005年第10期97-99,共3页
就代码cache的管理提出了CPB(cache-piece-block)策略,它具有全清空、FIFO和LRU策略的优点,并且考虑到程序的时间空间局部性和cache替换开销,从而实现了对代码cache的高效管理。
关键词 动态二进制翻译 代码cache CPB策略
在线阅读 下载PDF
多核系统中共享cache的动态划分 被引量:5
6
作者 杨磊 时磊 +1 位作者 张铁军 王东辉 《微电子学与计算机》 CSCD 北大核心 2009年第5期56-59,共4页
引入建立单独的监控电路的方法对cache进行最优的动态划分,有效解决了线程间cache访问互相污染的问题.同时基于cache访问局部性的差异,提出了Group划分的方法,在增加很少硬件开销的条件下进一步提高了性能.通过运行SPEC CPU2000测试程序... 引入建立单独的监控电路的方法对cache进行最优的动态划分,有效解决了线程间cache访问互相污染的问题.同时基于cache访问局部性的差异,提出了Group划分的方法,在增加很少硬件开销的条件下进一步提高了性能.通过运行SPEC CPU2000测试程序,动态划分将整体IPC提高8.7%,而Group划分方法可以提高11.8%. 展开更多
关键词 高速缓存 栈距离剖析 动态划分
在线阅读 下载PDF
一种嵌入式处理器的动态可重构Cache设计 被引量:3
7
作者 张毅 汪东升 《计算机工程与应用》 CSCD 北大核心 2004年第8期94-96,232,共4页
一般的处理器芯片都有片上高速缓存Cache,它一般是由固定大小的一级Cache(L1)和二级Cache(L2)构成,文章介绍了一种在嵌入式处理器设计中实现的动态可重构Cache。动态可重构Cache的思想最早是罗彻斯特大学(UniversityofRochester)的学者... 一般的处理器芯片都有片上高速缓存Cache,它一般是由固定大小的一级Cache(L1)和二级Cache(L2)构成,文章介绍了一种在嵌入式处理器设计中实现的动态可重构Cache。动态可重构Cache的思想最早是罗彻斯特大学(UniversityofRochester)的学者在他们的一篇关于存储层次的论文1中提出的,当时主要是针对高性能的超标量通用处理器。在此嵌入式处理器设计过程中,笔者创造性地继承了这一思想。通过增加少量硬件以及编译器的配合,在嵌入式处理器中L1Cache和L2Cache总体大小不变的情况下,L1Cache和L2Cache的大小可以根据具体的应用程序动态配置。通过对高速缓存的动态配置,不仅可以有效地提高Cache的命中率,还能够有效降低处理器的功耗。 展开更多
关键词 高速缓存 嵌入式处理器 动态可重构 命中率
在线阅读 下载PDF
一种低功耗动态可重构cache方案 被引量:1
8
作者 赵欢 苏小昆 李仁发 《计算机应用》 CSCD 北大核心 2009年第5期1446-1448,1451,共4页
嵌入式系统中,处理器功耗是十分受关注的,研究表明嵌入式系统中cache存储器的功耗占处理器总功耗的30%~60%。为此提出一种低功耗动态可重构的cache方案Tournament cache,该cache方案通过在传统cache结构的基础上增加三个计数器和一个... 嵌入式系统中,处理器功耗是十分受关注的,研究表明嵌入式系统中cache存储器的功耗占处理器总功耗的30%~60%。为此提出一种低功耗动态可重构的cache方案Tournament cache,该cache方案通过在传统cache结构的基础上增加三个计数器和一个寄存器,在程序运行的过程中,根据计数器统计的结果动态调整cache的相联度,使得相联度在1、2或4路之间变化,以适应不同程序段的需要,从而降低系统的功耗。实验结果表明,此cache方案对比传统的四路组相联的cache能耗节省超过40%,而且性能的降低几乎可以忽略。 展开更多
关键词 嵌入式系统 cache 低功耗 动态可重构
在线阅读 下载PDF
面向低功耗的多核处理器Cache设计方法 被引量:2
9
作者 方娟 郭媚 +1 位作者 杜文娟 雷鼎 《计算机应用》 CSCD 北大核心 2013年第9期2404-2409,共6页
针对多核处理器下的共享二级缓存(L2 Cache)提出了一种面向低功耗的Cache设计方案(LPD)。在LPD方案中,分别通过低功耗的共享Cache混合划分算法(LPHP)、可重构Cache算法(CRA)和基于Cache划分的路预测算法(WPP-L2)来达到降低Cache功耗的目... 针对多核处理器下的共享二级缓存(L2 Cache)提出了一种面向低功耗的Cache设计方案(LPD)。在LPD方案中,分别通过低功耗的共享Cache混合划分算法(LPHP)、可重构Cache算法(CRA)和基于Cache划分的路预测算法(WPP-L2)来达到降低Cache功耗的目的,同时保证系统的性能良好。在LPHP和CRA中,程序运行时动态地关闭Cache中空闲的Cache列,节省了对空闲列的访问功耗。在WPP-L2中,利用路预测技术在Cache访问前给出预测路信息,预测命中时则可用最短的访问延时和最少的访问功耗完成Cache访问;预测失效时,则结合Cache划分策略,降低由路预测失效导致的额外功耗开销。通过SPEC2000测试程序验证,与传统使用最近最少使用(LRU)替换策略的共享L2 Cache相比,本方案提出的三种算法虽然对程序执行时间稍有影响,但分别节省了20.5%、17%和64.6%的平均L2 Cache访问功耗,甚至还提高了系统吞吐率。实验表明,所提方法在保持系统性能的同时可以显著降低多核处理器的功耗。 展开更多
关键词 片上多核处理器 二级缓存 动态划分 低功耗 性能
在线阅读 下载PDF
基于Cache友好方法的数值计算代码优化 被引量:1
10
作者 高瑞泽 于剑 阎超 《计算机工程》 CAS CSCD 北大核心 2010年第5期7-9,共3页
总结利用存储层级结构加速计算流体力学程序的研究现状,通过对现代CPU高速缓存(Cache)的结构分析,研究Cache友好方法对程序运算速度的影响。使用2种基于Cache友好的优化方法对FORTRAN编写的三维多区计算机流铨力学(CFD)计算代码... 总结利用存储层级结构加速计算流体力学程序的研究现状,通过对现代CPU高速缓存(Cache)的结构分析,研究Cache友好方法对程序运算速度的影响。使用2种基于Cache友好的优化方法对FORTRAN编写的三维多区计算机流铨力学(CFD)计算代码进行优化,给出对三维Lu—SGS的详细优化算法。在3种计算平台上的数值实验结果表明,优化后程序运行时间能减少到优化前的20%~50%。 展开更多
关键词 高速缓存 计算流体力学 代码优化
在线阅读 下载PDF
一种多核Cache低功耗动态混合划分算法研究 被引量:2
11
作者 方娟 杜文娟 《小型微型计算机系统》 CSCD 北大核心 2011年第11期2295-2298,共4页
随着片上集成核数的增多,片上Cache的面积也越来越大,同时消耗的能耗也越来越多.因此,面向低功耗的Cache划分方法不可避免地成为了Cache划分中需要考虑的一个重点.然而,目前的Cache划分算法主要是面向公平性、性能或者QoS的,很少考虑到... 随着片上集成核数的增多,片上Cache的面积也越来越大,同时消耗的能耗也越来越多.因此,面向低功耗的Cache划分方法不可避免地成为了Cache划分中需要考虑的一个重点.然而,目前的Cache划分算法主要是面向公平性、性能或者QoS的,很少考虑到功耗问题.面向低功耗的混合划分方法(LPHP)利用程序运行的局部性原理,将在L2 Cache中访问差异度较大的线程作为一个划分单位,通过私有和共享两种资源分配方式相结合来实施Cache划分,从而实现在运行同一个应用时,使用更少的Cache列,关闭剩余列,达到降低系统功耗的目的.LPHP通过减少在使用的Cache列来达到降低功耗的目的,符合当前多核发展低功耗的趋势. 展开更多
关键词 低功耗 动态划分 共享cache 片上多核
在线阅读 下载PDF
实时系统中基于DVS与Cache划分技术的节能研究 被引量:1
12
作者 邓庆绪 程清廉 +1 位作者 孔繁鑫 汪嘉汉 《东北大学学报(自然科学版)》 EI CAS CSCD 北大核心 2011年第12期1704-1708,共5页
DVS(动态电压调度)和cache划分是用来节约嵌入式系统能耗的技术.两种技术的结合会具有更好的节能效果,而且有cache划分的其他优点,关键问题是如何为每个任务确定执行时的电压和cache大小来使系统能耗最小.在实时嵌入式系统中针对这一问... DVS(动态电压调度)和cache划分是用来节约嵌入式系统能耗的技术.两种技术的结合会具有更好的节能效果,而且有cache划分的其他优点,关键问题是如何为每个任务确定执行时的电压和cache大小来使系统能耗最小.在实时嵌入式系统中针对这一问题,提出了一个多项式时间复杂度算法.实验对比了多组测试集在不同算法下的能耗,结果表明,本算法在满足实时性约束条件下有效地降低系统能耗. 展开更多
关键词 实时嵌入系统 节能 cache划分 动态电压调度
在线阅读 下载PDF
Cache漏流功耗的自适应优化:动态容量调整
13
作者 张承义 郭维 周宏伟 《国防科技大学学报》 EI CAS CSCD 北大核心 2011年第6期17-23,共7页
当集成电路制造工艺水平发展到超深亚微米阶段,漏流功耗所占的比例越来越大,成为微处理器功耗的重要来源。漏流功耗同电压、漏电流和晶体管数量等因素密切相关。Cache是微处理器中面积较大的部件,对其漏流功耗进行优化是微处理器低功耗... 当集成电路制造工艺水平发展到超深亚微米阶段,漏流功耗所占的比例越来越大,成为微处理器功耗的重要来源。漏流功耗同电压、漏电流和晶体管数量等因素密切相关。Cache是微处理器中面积较大的部件,对其漏流功耗进行优化是微处理器低功耗设计的首要任务。除了采取工艺上的改进措施外,cache漏流功耗可以通过把握或改变cache的工作状态来进行体系结构级的自适应优化。提出了基于"逻辑路"的cache动态容量调整策略。模拟结果显示,在相联度较高的cache中,基于"逻辑路"的动态容量调整策略可以在几乎不影响性能的前提下,将cache的漏流功耗降低约76.6%。 展开更多
关键词 微处理器 高速缓冲存储器 漏流功耗 容量调整
在线阅读 下载PDF
位置信息与替换概率相结合的多核共享Cache管理机制
14
作者 徐金波 庞征斌 李琰 《国防科技大学学报》 EI CAS CSCD 北大核心 2016年第5期32-38,共7页
多核系统中末级Cache是影响整体性能的关键。为了提出一种细粒度、低延迟、低代价的末级共享Cache资源管理机制,将系统性能目标转换为每个内核当前占用Cache资源的替换概率,以决定每个内核能够提供的被替换资源的数量;对某个需要增加Ca... 多核系统中末级Cache是影响整体性能的关键。为了提出一种细粒度、低延迟、低代价的末级共享Cache资源管理机制,将系统性能目标转换为每个内核当前占用Cache资源的替换概率,以决定每个内核能够提供的被替换资源的数量;对某个需要增加Cache资源的内核,从可提供被替换资源的候选内核中选出距离较近且替换概率较高的一个内核,并以Cache块为粒度进行替换,从而实现Cache资源在不同内核间的动态划分。与传统以相联度为粒度的粗粒度替换机制相比,以Cache块为单位的替换机制具有更细的替换粒度,灵活性更高。另外,通过将位置信息和替换概率结合,保证了Cache资源与相应内核在物理布局上的收敛,降低了访问延迟。同时,所提出的方法只需要增加极少的硬件代价。实验结果表明,根据实验场景和对比对象的不同,所提方法与其他已有研究成果相比,可以实现从6.8%到22.7%的性能提升。 展开更多
关键词 多核系统 末级cache 动态划分 替换策略
在线阅读 下载PDF
基于程序段的可重构cache与处理器低能耗算法
15
作者 彭蔓蔓 李仁发 +1 位作者 彭方 王宇明 《计算机应用研究》 CSCD 北大核心 2008年第9期2692-2696,共5页
运用可重构cache和动态电压缩放技术,为处理器及其cache提出了一种基于程序段的自适应低能耗算法PBLEA(phase-based lowenergy algorithm)。该算法使用建立在指令工作集签名基础上的程序段监测状态机来判断程序段是否发生变化,并作出ca... 运用可重构cache和动态电压缩放技术,为处理器及其cache提出了一种基于程序段的自适应低能耗算法PBLEA(phase-based lowenergy algorithm)。该算法使用建立在指令工作集签名基础上的程序段监测状态机来判断程序段是否发生变化,并作出cache容量及CPU电压和频率的调整决定。在程序段内,使用容量调整状态机和通过计算频率缩放因子β来先后对cache容量及CPU电压和频率进行调整。在Sim-panalyzer模拟器上完成了该算法的实现。通过对MiBench测试程序集的测试表明:与传统的cache和CPU相比较,该算法使系统能耗平均节省了49.1%,而平均性能损失为8.7%。 展开更多
关键词 可重构高速缓冲存储器 动态电压缩放 自适应算法 运行程序段 低能耗
在线阅读 下载PDF
一种面向超标量处理器的低功耗指令Cache设计
16
作者 肖建青 李伟 +1 位作者 张洵颖 沈绪榜 《微电子学与计算机》 CSCD 北大核心 2015年第7期103-106,111,共5页
针对超标量结构中多体并行的流水化指令Cache提出了三种低功耗优化策略,首先是基于Cache路的条件放大技术,它根据标志匹配结果来关闭无关路中敏感放大器对存储阵列的驱动输出;其次是基于Cache行的动态电压调节技术,它只对当前访问的Cach... 针对超标量结构中多体并行的流水化指令Cache提出了三种低功耗优化策略,首先是基于Cache路的条件放大技术,它根据标志匹配结果来关闭无关路中敏感放大器对存储阵列的驱动输出;其次是基于Cache行的动态电压调节技术,它只对当前访问的Cache行提供正常的操作电压,而其他Cache行都处于低电压休眠状态;最后是基于短循环程序的指令回收技术,它通过重复利用过期指令来减少对Cache的冗余访问.实验表明,这个低功耗设计在SPEC和PowerStone基准程序下可以将指令Cache的总功耗分别降低72.4%和84.3%,而处理器的IPC损失分别只有1.1%和0.8%,并且不会带来任何时序开销. 展开更多
关键词 超标量 流水化指令cache 条件放大 动态电压调节 指令回收
在线阅读 下载PDF
基于页着色的多核处理器共享Cache动态分区 被引量:3
17
作者 张栌丹 王锐 +1 位作者 刘轶 钱德沛 《计算机学报》 EI CSCD 北大核心 2014年第7期1478-1486,共9页
随着多核/众核成为处理器结构发展的主流,并行任务间共享地使用Cache而导致的冲突越来越成为性能提升的瓶颈.利用页着色可以实现对Cache的分区管理,减少共享Cache导致的冲突.页着色的原理是利用内存与Cache之间的组相联映射关系,通过控... 随着多核/众核成为处理器结构发展的主流,并行任务间共享地使用Cache而导致的冲突越来越成为性能提升的瓶颈.利用页着色可以实现对Cache的分区管理,减少共享Cache导致的冲突.页着色的原理是利用内存与Cache之间的组相联映射关系,通过控制分配固定区域的内存而达到分配固定区域Cache的目的,这一方面限制了任务能够请求的物理内存范围,另一方面调整程序使用的Cache空间需要做大量的内存拷贝,带来了不可忽视的开销.为了克服页着色的缺点,文中通过动态内存分配的方式,只对动态分配的页进行着色,在不修改内核和程序源码的前提下实现了动态Cache分区.文中提出的动态内存分配策略(CachePM)会根据运行时环境为任务分配内存,避免不同任务间共享Cache的冲突和同一任务内出现Cache的访问热点,通过合理划分程序运行时动态分配的内存达到Cache分区的目的.当任务的运行环境改变时,CachePM自适应地改变已经分配的堆中数据在物理内存中的布局,以实现Cache分区的动态调节.为进一步降低动态页着色的开销,作者采用了减少和延迟内存拷贝的策略.实验表明,该方法能够有效实现动态Cache分区,从而提高并行运行的任务的性能;同时由于动态内存分配策略避免了同一任务内出现Cache访问热点,单独运行的任务的性能也较在libc下运行有所提升. 展开更多
关键词 cache分区 动态页着色 动态内存分配
在线阅读 下载PDF
分子动力学模拟中Cache访问的分析与优化 被引量:1
18
作者 赵文辉 白明泽 豆育升 《小型微型计算机系统》 CSCD 北大核心 2014年第2期423-427,共5页
为了提高分子动力学模拟计算在当前具有多级缓存(Cache)结构的处理器上的计算性能,对分子动力学模拟过程中缓存(Cache)的访问特征进行了分析与优化.通过对影响Cache命中率和模拟计算效率的因素进行测试与分析,提出一种Atomreorder算法.... 为了提高分子动力学模拟计算在当前具有多级缓存(Cache)结构的处理器上的计算性能,对分子动力学模拟过程中缓存(Cache)的访问特征进行了分析与优化.通过对影响Cache命中率和模拟计算效率的因素进行测试与分析,提出一种Atomreorder算法.该方法通过重新调整粒子的顺序,使同一个或者相邻晶格的粒子在主存中的位置接近来增强程序的局部性,进而减少Cache的丢失.测试结果表明该方法对大体系模拟的Cache丢失有明显的优化,计算效率也相应提高了. 展开更多
关键词 分子动力学 缓存 cache命中率 Atom-reorder Program Performance Application Interface(PAPI)
在线阅读 下载PDF
基于超窄数据的低功耗数据Cache方案 被引量:4
19
作者 马志强 季振洲 胡铭曾 《计算机研究与发展》 EI CSCD 北大核心 2007年第5期775-781,共7页
降低耗电量已经成为当前最重要的设计问题之一.现代微处理器多采用片上Cache来弥合主存储器与中央处理器(CPU)之间的巨大速度差异,但Cache也成为处理器功耗的主要来源,设计低功耗的Cache存储体变得越来越重要.仅需要很少的几位就可以存... 降低耗电量已经成为当前最重要的设计问题之一.现代微处理器多采用片上Cache来弥合主存储器与中央处理器(CPU)之间的巨大速度差异,但Cache也成为处理器功耗的主要来源,设计低功耗的Cache存储体变得越来越重要.仅需要很少的几位就可以存储的超窄数据(VNV)在Cache的存储和访问中都占有很大的比例.据此,提出了一种基于超窄数据的低功耗Cache结构(VNVC).在VNVC中,数据存储体被分为低位存储体和高位存储体两部分.在标志位控制下,用来存放超窄数据的高存储单元将被关闭,以节省其动态和静态功耗.VNVC仅通过改进存储体来获得低功耗,不需要额外的辅助硬件,并且不影响原有Cache的性能,所以适合于各种Cache组织结构.采用12个Spec2000测试程序的仿真结果表明,4位宽度的超窄数据可以获得最大的节省率,平均可节省动态功耗29.85%、静态功耗29.94%. 展开更多
关键词 低功耗 超窄数据 数据cache 动态功耗 静态功耗
在线阅读 下载PDF
Joint Optimization of Satisfaction Index and Spectrum Efficiency with Cache Restricted for Resource Allocation in Multi-Beam Satellite Systems 被引量:5
20
作者 Pei Zhang Xiaohui Wang +1 位作者 Zhiguo Ma Junde Song 《China Communications》 SCIE CSCD 2019年第2期189-201,共13页
Dynamic resource allocation(DRA) is a key technology to improve system performances in GEO multi-beam satellite systems. And, since the cache resource on the satellite is very valuable and limited, DRA problem under r... Dynamic resource allocation(DRA) is a key technology to improve system performances in GEO multi-beam satellite systems. And, since the cache resource on the satellite is very valuable and limited, DRA problem under restricted cache resources is also an important issue to be studied. This paper mainly investigates the DRA problem of carrier resources under certain cache constraints. What's more, with the aim to satisfy all users' traffic demands as more as possible, and to maximize the utilization of the bandwidth, we formulate a multi-objective optimization problem(MOP) where the satisfaction index and the spectrum efficiency are jointly optimized. A modified strategy SA-NSGAII which combines simulated annealing(SA) and non-dominated sorted genetic algorithm-II(NSGAII) is proposed to approximate the Pareto solution to this MOP problem. Simulation results show the effectiveness of the proposed algorithm in terms of satisfaction index, spectrum efficiency, occupied cache, and etc. 展开更多
关键词 GEO MULTI-BEAM satellite system dynamic resource ALLOCATION SA-NSGAII cache SATISFACTION index spectrum efficiency
在线阅读 下载PDF
上一页 1 2 9 下一页 到第
使用帮助 返回顶部