正交时频空间调制(orthogonal time frequency space,OTFS)技术作为一种多载波技术,同样存在峰均功率比较大的问题,高PAPR信号容易进入功率放大器的非线性工作区,导致接收信号的非线性失真,信号经过信道传输后会进一步影响系统的误码率(...正交时频空间调制(orthogonal time frequency space,OTFS)技术作为一种多载波技术,同样存在峰均功率比较大的问题,高PAPR信号容易进入功率放大器的非线性工作区,导致接收信号的非线性失真,信号经过信道传输后会进一步影响系统的误码率(bit error rate,BER)性能.针对该问题,利用chirp信号相位和为1的特点,采用基于chirp信号预编码的PAPR抑制方法,并在此基础上结合选择映射(selective mapping,SLM)法,将多组频域chirp信号与时频域信号点乘,再经过海森堡变换后选取PAPR最小的一组备选信号作为时域信号.仿真结果表明,与原始OTFS信号相比,基于频域chirp信号的OTFS系统的PAPR降低了0.9 dB,与传统SLM方法相比,使用基于频域chirp信号的SLM改进方法的OTFS系统,减少了IFFT次数的同时保证了系统的PAPR抑制性能.展开更多
文摘正交时频空间调制(orthogonal time frequency space,OTFS)技术作为一种多载波技术,同样存在峰均功率比较大的问题,高PAPR信号容易进入功率放大器的非线性工作区,导致接收信号的非线性失真,信号经过信道传输后会进一步影响系统的误码率(bit error rate,BER)性能.针对该问题,利用chirp信号相位和为1的特点,采用基于chirp信号预编码的PAPR抑制方法,并在此基础上结合选择映射(selective mapping,SLM)法,将多组频域chirp信号与时频域信号点乘,再经过海森堡变换后选取PAPR最小的一组备选信号作为时域信号.仿真结果表明,与原始OTFS信号相比,基于频域chirp信号的OTFS系统的PAPR降低了0.9 dB,与传统SLM方法相比,使用基于频域chirp信号的SLM改进方法的OTFS系统,减少了IFFT次数的同时保证了系统的PAPR抑制性能.
文摘针对实际多智能体系统对交互经验的庞大需求,在单智能体领域分布式架构的基础上,提出概率经验优先回放机制与分布式架构并行的多智能体软行动-评论者算法(multi-agent soft Actor-Critic with probabilistic prioritized experience replay based on a distributed paradigm, DPER-MASAC).该算法中的行动者以并行与环境交互的方式收集经验数据,为突破单纯最近经验在多智能体高吞吐量情况下被高概率抽取的局限性,提出更为普适的改进的基于优先级的概率方式对经验数据进行抽样利用的模式,并对智能体的网络参数进行更新.为验证算法的效率,设计了难度递增的2类合作和竞争关系共存的捕食者-猎物任务场景,将DPER-MASAC与多智能体软行动-评论者算法(multi-agent soft Actor-Critic, MASAC)和带有优先经验回放机制的多智能体软行动-评论者算法(multi-agent soft Actor-Critic with prioritized experience replay, PER-MASAC)2种基线算法进行对比实验.结果表明,采用DPER-MASAC训练的捕食者团队其决策水平在最终性能和任务成功率2个维度上均有明显提升.