期刊文献+
共找到1,791篇文章
< 1 2 90 >
每页显示 20 50 100
基于最优路径相似度度量的MPI程序路径覆盖测试方法
1
作者 袁剑锋 刘佳 郭建卫 《电脑与信息技术》 2025年第1期41-47,共7页
针对消息传递接口(Message Passing Interface,MPI)程序中,路径覆盖路径相似度度量方法在测试数据生成方面效率较低的问题,提出一种高效且高可靠性的测试路径度量方法。该方法首先基于不同的相似性度量方法,度量MPI程序路径间的相似度,... 针对消息传递接口(Message Passing Interface,MPI)程序中,路径覆盖路径相似度度量方法在测试数据生成方面效率较低的问题,提出一种高效且高可靠性的测试路径度量方法。该方法首先基于不同的相似性度量方法,度量MPI程序路径间的相似度,并运用协同进化算法产生测试数据;然后,对比在不同的相似性度量方法下,产生覆盖MPI程序目标路径测试数据的有效性和效率;最后,确定对应最高有效性和效率的相似度度量方法为最优路径相似度公式。所提出的验证方法被应用于7个并行程序上,实验结果表明,所提方法在生成测试数据方面具有最高的效率和有效性。 展开更多
关键词 相似度度量方法 测试数据生成 路径覆盖测试 mpi程序 协同进化算法
在线阅读 下载PDF
基于“天河二号”聚合通信卸载特性的MPI_Barrier优化
2
作者 朱琦 戴艺 +5 位作者 彭晋韬 谢旻 梁崇山 刘鹏 杨博 刘杰 《计算机工程与科学》 北大核心 2025年第3期400-411,共12页
Barrier作为消息传递接口MPI程序的基本操作,是确保程序正确执行的重要机制之一。目前已有的Barrier实现方案主要存在2个缺陷:首先,节点间同步存在大量冗余的数据路径传输开销;其次,节点内同步存在大量缓存失效的情况。为解决这些性能限... Barrier作为消息传递接口MPI程序的基本操作,是确保程序正确执行的重要机制之一。目前已有的Barrier实现方案主要存在2个缺陷:首先,节点间同步存在大量冗余的数据路径传输开销;其次,节点内同步存在大量缓存失效的情况。为解决这些性能限制,针对“天河二号”定制网络TH-Express聚合通信卸载特性,提出了基于GLEX NIC的Barrier加速和共享内存标志位重排列2种优化技术,有效减少了节点间同步开销,提高了节点内基于共享内存的同步效率。基于上述优化方法,重新设计了MPI_Barrier算法,并将其集成到MPI通信库中,并在国家超级计算长沙中心通过运行微基准测试程序和实际应用程序对所提优化方法进行性能测试,规模达到7168个节点。实验结果表明,优化后的MPI_Barrier集合操作获得了1.3~14.5倍的加速,并在应用级真实负载评测中,性能提升高达54%。 展开更多
关键词 mpi BARRIER 大规模并行应用 NIC聚合通信卸载
在线阅读 下载PDF
电大涂覆目标SBR算法与MPI并行加速技术
3
作者 吴扬 王思凡 +5 位作者 申子昂 贾浩文 祝强强 徐若锋 郭卿超 赵雷 《电波科学学报》 北大核心 2025年第3期407-414,共8页
为满足涂覆雷达吸波材料(radar absorbing material,RAM)的复杂目标电磁散射快速计算需求,提出了一种基于弹跳射线(shooting and bouncing ray,SBR)的高效计算方法。该方法利用广义传播矩阵法理论推导了金属衬底多层介质的反射系数,并... 为满足涂覆雷达吸波材料(radar absorbing material,RAM)的复杂目标电磁散射快速计算需求,提出了一种基于弹跳射线(shooting and bouncing ray,SBR)的高效计算方法。该方法利用广义传播矩阵法理论推导了金属衬底多层介质的反射系数,并将其与SBR法耦合,精确计算了多层介质涂覆目标的雷达散射截面(radar cross section,RCS);为进一步提高计算效率,采用基于CPU平台的MPI并行加速技术,实现了SBR算法的高效并行。数值结果表明:所计算的二面角反射器模型和舰船模型RCS结果与商业软件FEKO结果之间吻合良好,其中二面角反射器的均方根误差小于3 dBsm;针对电大涂覆飞行器目标,各计算进程的并行效率均达到80%以上。该方法有效解决了电大涂覆目标电磁散射计算的精度和速度,为电大复杂目标隐身性能的评估计算提供了高效的解决方案。 展开更多
关键词 弹跳射线(SBR)法 广义传播矩阵法 mpi并行 雷达散射截面(RCS) 雷达吸波材料(RAM)
在线阅读 下载PDF
基于线程的MPI通信加速器技术研究 被引量:12
4
作者 刘志强 宋君强 +1 位作者 卢风顺 赵娟 《计算机学报》 EI CSCD 北大核心 2011年第1期154-164,共11页
为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI... 为了针对多核系统构建更高效的MPI支撑环境,文中提出了一种基于线程的MPI加速器,称作MPIActor.MPIActor是一种用于协助传统MPI库的透明中间件,用户可以在编译期选择是否在单线程MPI程序中采用该中间件.加入MPIActor后,每个节点内的MPI进程都被映射成同一进程中的多个线程,从而节点内的通信可通过轻量级的线程通信机制实现.作者给出了MPIActor的基本设计,详细阐述了其工作机制、通信体系结构及关键技术,并在真实系统上分别针对MVAPICH2和OpenMPI并行环境利用OSU LATENCY基准测试进行了性能评测.实验结果表明在两种MPI环境上进行节点内8 KB^4 MB数据通信时MPIActor都能使通信性能平均提高一倍左右. 展开更多
关键词 mpi软件结构 线程mpi mpi加速器 mpiActor
在线阅读 下载PDF
多核机群下MPI程序优化技术的研究 被引量:2
5
作者 王洁 衷璐洁 曾宇 《计算机科学》 CSCD 北大核心 2011年第10期281-284,共4页
多核处理器的新特性使多核机群的存储层次更加复杂,同时也给MPI程序带来了新的优化空间。国内外学者提出了许多多核机群下MPI程序的优化方法和技术。测试了3个不同多核机群的通信性能,并分别在Intel与AMD多核机群下实验评估了几种具有... 多核处理器的新特性使多核机群的存储层次更加复杂,同时也给MPI程序带来了新的优化空间。国内外学者提出了许多多核机群下MPI程序的优化方法和技术。测试了3个不同多核机群的通信性能,并分别在Intel与AMD多核机群下实验评估了几种具有普遍意义的优化技术:混合MPI/OpenMP、优化MPI运行时参数以及优化MPI进程摆放,同时对实验结果和优化性能进行了分析。 展开更多
关键词 多核机群 存储层次化 mpi程序优化 混合mpi/OpenMP mpi运行时参数 mpi进程摆放
在线阅读 下载PDF
基于MPI和OpenMP混合编程的高分三号数据分布式并行转换算法 被引量:5
6
作者 陈云 《测绘与空间地理信息》 2024年第2期43-45,49,共4页
高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,... 高分三号是我国C波段多极化合成孔径雷达卫星。PolSARpro是欧空局支持下的一款极化SAR影像处理的开源软件,为了便于利用该软件处理高分三号数据,本文提出了一种基于MPI和OpenMP并以PolSARpro软件的数据格式要求进行分布式并行转换算法,实现将高分三号极化数据快速精确转化为复数散射矩阵S2数据格式,通过KingMap V8.0平台实现了算法并在实际数据中进行测试,验证了算法的可行性、正确性和高效性。 展开更多
关键词 高分三号 合成孔径雷达 复数散射矩阵 OPENMP mpi KingMap
在线阅读 下载PDF
MPI语言绑定:MPI-Delphi,MPI-Java与MPI-Ruby 被引量:4
7
作者 魏兵海 《计算机科学》 CSCD 北大核心 2004年第8期185-189,共5页
MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种 API 语言绑定作了综合性分析:MPI-Delphi,MPI-Java 和 MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术... MPI(消息传递接口)是最重要的主流并行计算模式之一,它既能应用于当今的分布式环境,也可用于未来的网格环境。本文对以下三种 API 语言绑定作了综合性分析:MPI-Delphi,MPI-Java 和 MPI-Ruby,并探讨了其体系架构、实现机制及相关的技术特征。MPI-Delphi 基于 DLL(动态语言连接)模式实现 Delphi 语言到 MPI 库的绑定。在MPI-Java 绑定实现时,JVM(Java 虚拟机)、JNI(Java 本地接接口)、对象串行化范型和 Java 新 I/O 库 Java.nio 都是用作 MPI 性能优化的关键技术。MPI-Ruby 能够提供给用户最易使用和最强大的接口。本文还对一些相关的绑定机制进行了介绍和分析。 展开更多
关键词 mpi 语言绑定 mpi-Delphi mpi-Java mpi-Ruby 消息传递接口
在线阅读 下载PDF
MPI/OpenMP-Based Parallel Solver for Imprint Forming Simulation
8
作者 Yang Li Jiangping Xu +2 位作者 Yun Liu Wen Zhong Fei Wang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期461-483,共23页
In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining pr... In this research,we present the pure open multi-processing(OpenMP),pure message passing interface(MPI),and hybrid MPI/OpenMP parallel solvers within the dynamic explicit central difference algorithm for the coining process to address the challenge of capturing fine relief features of approximately 50 microns.Achieving such precision demands the utilization of at least 7 million tetrahedron elements,surpassing the capabilities of traditional serial programs previously developed.To mitigate data races when calculating internal forces,intermediate arrays are introduced within the OpenMP directive.This helps ensure proper synchronization and avoid conflicts during parallel execution.Additionally,in the MPI implementation,the coins are partitioned into the desired number of regions.This division allows for efficient distribution of computational tasks across multiple processes.Numerical simulation examples are conducted to compare the three solvers with serial programs,evaluating correctness,acceleration ratio,and parallel efficiency.The results reveal a relative error of approximately 0.3%in forming force among the parallel and serial solvers,while the predicted insufficient material zones align with experimental observations.Additionally,speedup ratio and parallel efficiency are assessed for the coining process simulation.The pureMPI parallel solver achieves a maximum acceleration of 9.5 on a single computer(utilizing 12 cores)and the hybrid solver exhibits a speedup ratio of 136 in a cluster(using 6 compute nodes and 12 cores per compute node),showing the strong scalability of the hybrid MPI/OpenMP programming model.This approach effectively meets the simulation requirements for commemorative coins with intricate relief patterns. 展开更多
关键词 Hybrid mpi/OpenMP parallel computing mpi OPENMP imprint forming
在线阅读 下载PDF
基于MPI+CUDA的DSMC/PIC耦合模拟异构并行及性能优化研究 被引量:1
9
作者 林拥真 徐传福 +4 位作者 邱昊中 汪青松 王正华 杨富翔 李洁 《计算机科学》 CSCD 北大核心 2024年第9期31-39,共9页
DSMC/PIC耦合模拟是一类重要的高性能计算应用,大规模DSMC/PIC耦合模拟计算量巨大,需要实现高效并行计算。由于粒子动态注入、迁移等操作,基于MPI并行的DSMC/PIC耦合模拟往往通信开销较大且难以实现负载均衡。针对自主研发的DSMC/PIC耦... DSMC/PIC耦合模拟是一类重要的高性能计算应用,大规模DSMC/PIC耦合模拟计算量巨大,需要实现高效并行计算。由于粒子动态注入、迁移等操作,基于MPI并行的DSMC/PIC耦合模拟往往通信开销较大且难以实现负载均衡。针对自主研发的DSMC/PIC耦合模拟软件,在原有MPI并行优化版本上设计实现了高效的MPI+CUDA异构并行算法,结合GPU体系结构和DSMC/PIC计算特点,开展了GPU访存优化、GPU线程工作负载优化、CPU-GPU数据传输优化及DSMC/PIC数据冲突优化等一系列性能优化。在北京北龙超级云HPC系统的NVIDIA V100和A100 GPU上,针对数亿粒子规模的脉冲真空弧等离子体羽流应用,开展了大规模DSMC/PIC耦合异构并行模拟,相比原有纯MPI并行,GPU异构并行大幅缩短了模拟时间,两块GPU卡较192核的CPU加速比达到550%,同时具有更好的强可扩展性。 展开更多
关键词 DSMC/PIC耦合 粒子模拟 异构并行 mpi+CUDA
在线阅读 下载PDF
压电陶瓷作动器的MPI动态迟滞建模与控制 被引量:3
10
作者 周子希 王贞艳 《振动与冲击》 EI CSCD 北大核心 2024年第18期131-136,共6页
压电陶瓷是一种具有迟滞非线性的智能材料。为了实现系统的精密跟踪控制,提出一种基于MPI(modified Prandtl-Ishlinskii)的Hammerstein动态迟滞模型,并基于该模型设计了滑模跟踪控制方案。在play算子的上升边沿和下降边沿阈值处引入了... 压电陶瓷是一种具有迟滞非线性的智能材料。为了实现系统的精密跟踪控制,提出一种基于MPI(modified Prandtl-Ishlinskii)的Hammerstein动态迟滞模型,并基于该模型设计了滑模跟踪控制方案。在play算子的上升边沿和下降边沿阈值处引入了延时系数,并串联死区算子构成改进的非对称PI(Prandtl-Ishlinskii)模型,基于MPI的Hammerstein动态迟滞非线性模型可以描述压电陶瓷作动器的率相关迟滞特性。通过采集在单频率10 Hz,40 Hz,80 Hz和复合频率10~90 Hz正弦输入电压信号下的压电陶瓷作动器的位移数据,并采用粒子群算法和最小二乘递推方法辨识MPI模型参数和ARX(auto regressive model with exogenous input)模型参数,验证了模型的可行性,相较于基于经典PI的Hammerstein动态迟滞模型,模型误差分别降低了37%,42%,35%和24%。最后,构建迟滞补偿器,利用Hammerstein模型的模块化特点,提出一种可以实现对系统动态跟踪控制的滑模控制方案,并搭建了滑模控制压电系统试验平台,对单频率1 Hz,40 Hz,80 Hz和复合频率10~90 Hz的正弦输入电压信号进行了微位移实时跟踪控制试验,试验中的相对误差在7.62%以内,均方根最大误差为1.8573μm,表明所提出的滑模控制器有较强的跟踪性能。 展开更多
关键词 压电陶瓷作动器 迟滞非线性 Hammerstein动态迟滞模型 mpi模型 滑模跟踪控制
在线阅读 下载PDF
利用MPI实现点云SAC-IA并行配准
11
作者 崔家武 曾波 +2 位作者 李海军 甄兆聪 梁建青 《工程勘察》 2024年第4期61-67,共7页
采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA... 采样一致性初始配准算法(SAC-IA)是点云的一种粗配准算法。针对大规模点云SAC-IA配准效率低、实时性差等问题,本文提出利用消息传递接口MPI实现点云SAC-IA多进程并行配准,主要包括法向量并行估计、SPFH特征及FPFH特征并行计算和SAC-IA并行配准。实验结果表明,MPI多进程并行算法可显著提高点云SAC-IA配准速度。 展开更多
关键词 SAC-IA mpi 法向量 SPFH特征 FPFH特征
原文传递
一种基于HDFS的分布式文件系统MPIFS 被引量:4
12
作者 陈卓航 陈雅琴 郭志勇 《黑龙江工程学院学报》 CAS 2024年第1期9-14,共6页
传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MP... 传统的MPI(Message Passing Interface)计算特点是数据向计算迁移,对于数据量庞大的计算任务具有先天的不足。文中提出一种支持MPI的分布式文件系统MPIFS的架构及实现。该文件系统基于HDFS(Hadoop Distributed File System),使得MPI在MPIFS上能同时支持计算密集型和数据密集型计算,设置两个类型的批处理词频统计实验,所需数据都分布式存储在MPIFS分布式文件系统中,通过调用系统提供的统一数据接口实现数据访问。1个计算节点在本地计算大小为m的文件,n个计算节点分布式并行计算大小为n×m的文件,两者计算时间相同,MPIFS中文件总量不变,计算节点数量减少,计算时间t变长,可得出MPIFS文件系统架构可行,能够支持MPI实现计算向数据迁移的并行计算。 展开更多
关键词 mpi 分布式文件系统 分布式并行计算 计算迁移
在线阅读 下载PDF
MPI+CUDA联合加速重力场反演的并行算法 被引量:1
13
作者 赵锴坤 朱炬波 +1 位作者 谷德峰 韦春博 《大地测量与地球动力学》 CSCD 北大核心 2024年第4期423-428,共6页
针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速... 针对重力场解算过程中数据量巨大的问题,联合MPI(massage passing interface)与CUDA(compute unified device architecture)提出基于最小二乘法的重力场解算过程的并行加速算法。使用MPI完成复杂过程的任务分配,实现全局层面的并行加速;基于CUDA编写大规模矩阵相乘的并行加速程序,并针对不同类型的矩阵进行适配,同时联合MPI将法矩阵的计算过程进一步细分,实现对分进程内存峰值的压缩。在单机上完成30阶与120阶重力场仿真解算任务,结果表明,反演30阶重力场时加速比可达180;反演120阶重力场时,并行计算单次迭代仅耗时2 h,而串行模式下无法计算。 展开更多
关键词 重力场 并行计算 CUDA mpi
在线阅读 下载PDF
An MPI parallel DEM-IMB-LBM framework for simulating fluid-solid interaction problems 被引量:2
14
作者 Ming Xia Liuhong Deng +3 位作者 Fengqiang Gong Tongming Qu Y.T.Feng Jin Yu 《Journal of Rock Mechanics and Geotechnical Engineering》 SCIE CSCD 2024年第6期2219-2231,共13页
The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive comp... The high-resolution DEM-IMB-LBM model can accurately describe pore-scale fluid-solid interactions,but its potential for use in geotechnical engineering analysis has not been fully unleashed due to its prohibitive computational costs.To overcome this limitation,a message passing interface(MPI)parallel DEM-IMB-LBM framework is proposed aimed at enhancing computation efficiency.This framework utilises a static domain decomposition scheme,with the entire computation domain being decomposed into multiple subdomains according to predefined processors.A detailed parallel strategy is employed for both contact detection and hydrodynamic force calculation.In particular,a particle ID re-numbering scheme is proposed to handle particle transitions across sub-domain interfaces.Two benchmarks are conducted to validate the accuracy and overall performance of the proposed framework.Subsequently,the framework is applied to simulate scenarios involving multi-particle sedimentation and submarine landslides.The numerical examples effectively demonstrate the robustness and applicability of the MPI parallel DEM-IMB-LBM framework. 展开更多
关键词 Discrete element method(DEM) Lattice Boltzmann method(LBM) Immersed moving boundary(IMB) Multi-cores parallelization Message passing interface(mpi) CPU Submarine landslides
在线阅读 下载PDF
一种Nehalem平台上的MPI多级分段归约算法
15
作者 邹金安 刘志强 廖蔚 《小型微型计算机系统》 CSCD 北大核心 2012年第4期733-738,共6页
基于线程MPI环境提出一种适用于Nehalem平台长消息归约的多级分段归约算法(HSRA).HSRA考虑了Nehalem系统的体系结构特点,分处理器内归约和处理器外归约两个步骤实施节点内归约通信,在均匀分布计算负载的前提下仅需要较少的远端内存访问... 基于线程MPI环境提出一种适用于Nehalem平台长消息归约的多级分段归约算法(HSRA).HSRA考虑了Nehalem系统的体系结构特点,分处理器内归约和处理器外归约两个步骤实施节点内归约通信,在均匀分布计算负载的前提下仅需要较少的远端内存访问.首先在MPIActor的归约算法框架中设计、实现了HSRA算法,从访存角度分析了HSRA算法的开销,然后与单级分段和已有的另外三种节点内基于共享内存的归约算法进行比较;最后在真实系统上通过IMB(Intel MPI Benchmark)验证算法,实验结果表明,该算法是一种适用于在Nehalem系统中处理长消息节点内归约的高效算法. 展开更多
关键词 多级分段归约算法 mpi HSRA NEHALEM mpi归约 mpi全归约
在线阅读 下载PDF
基于CGA的MPI程序分支覆盖测试套件生成
16
作者 袁剑锋 刘佳 郭建卫 《计算机技术与发展》 2024年第7期78-86,共9页
针对程序的分支覆盖测试,元启发式搜索技术已经被广泛应用于测试数据生成中。然而,当前的研究成果主要适用于串行程序。因此,为覆盖消息传递接口(Message Passing Interface,MPI)程序的分支,该文研究基于协同进化遗传算法(Co-evolutiona... 针对程序的分支覆盖测试,元启发式搜索技术已经被广泛应用于测试数据生成中。然而,当前的研究成果主要适用于串行程序。因此,为覆盖消息传递接口(Message Passing Interface,MPI)程序的分支,该文研究基于协同进化遗传算法(Co-evolutionary Genetic Algorithm,CGA)的测试套件生成方法(简称为:CGA生成法),该方法具有不受不可行分支影响的优势。首先,基于收集覆盖信息的探针,定义最小归一化分支距离,并以此设计出相应的适应度值函数;然后,使用CGA生成进化个体,并基于设计的适应度值函数,计算这些个体的适应值;最后,基于计算的适应值,选择子种群中代表个体,以构成合作种群。所提CGA生成法应用于7个基准MPI程序,并与其他多种方法进行比较。实验结果表明,CGA生成法的覆盖率通常高于其他搜索算法。 展开更多
关键词 消息传递接口程序 协同进化遗传算法 分支覆盖测试 测试套件生成 适应度值函数
在线阅读 下载PDF
非平衡进程到达模式下MPI广播的性能优化方法 被引量:4
17
作者 刘志强 宋君强 +1 位作者 卢风顺 徐芬 《软件学报》 EI CSCD 北大核心 2011年第10期2509-2522,共14页
为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了... 为了提高非平衡进程到达(unbalanced process arrival,简称UPA)模式下MPI广播的性能,对UPA模式下的广播问题进行了理论分析,证明了在多核集群环境中通过节点内多个MPI进程的竞争可以有效减少UPA对MPI广播性能的影响,并在此基础上提出了一种新的优化方法,即竞争式流水化方法(competitive and pipelined method,简称CP).CP方法通过一种节点内进程竞争机制在广播过程中尽早启动节点间通信,经该方法优化的广播算法利用共享内存在节点内通信,利用由竞争机制产生的引导进程执行原算法在节点间通信.并且,该方法使节点间通信和节点内通信以流水方式重叠执行,能够有效利用集群系统各节点的多核优势,减少了MPI广播受UPA的影响,提高了性能.为了验证CP方法的有效性,基于此方法优化了3种典型的MPI广播算法,分别适用于不同消息长度的广播.在真实系统中,通过微基准测试和两个实际的应用程序对CP广播进行了性能评价,结果表明,该方法能够有效地提高传统广播算法在UPA模式下的性能.在应用程序的负载测试实验结果中,CP广播的性能较流水化广播的性能提高约16%,较MVAPICH21.2中广播的性能提高18%~24%. 展开更多
关键词 进程到达模式 mpi 集合通信 mpi_Bcast 竞争式流水化方法
在线阅读 下载PDF
MPI全互换通信的性能优化 被引量:2
18
作者 罗秋明 王梅 +1 位作者 雷海军 张红兵 《计算机工程与应用》 CSCD 北大核心 2006年第16期127-128,170,共3页
MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来... MPI全互换操作是集群计算机上进行仿真计算时常用的通信操作之一,用于各计算节点间交换上一步骤的中间计算结果。由于全互换通信的密集多对多通信容易产生接收端的阻塞从而增加通信延时,因此通过形成环状的多次规律且有序的通信过程来优化全互换通信操作过程,在大数据量的全互换通信中可以获得明显的性能提升。 展开更多
关键词 集群计算 mpi mpiCH 全互换
在线阅读 下载PDF
MPI程序的Petri网模型及其动态性质(英文) 被引量:5
19
作者 崔焕庆 吴哲辉 《系统仿真学报》 EI CAS CSCD 北大核心 2006年第9期2455-2460,共6页
对并行程序进行验证以保证正确性是很重要的,但是由于并行程序比串行程序要复杂得多,因此有必要建立它们的模型。MPI是目前应用最广泛的基于消息传递的并行程序编程标准之一。基于MPI程序的特点,提出了MPI并行程序的Petri网模型——MPIN... 对并行程序进行验证以保证正确性是很重要的,但是由于并行程序比串行程序要复杂得多,因此有必要建立它们的模型。MPI是目前应用最广泛的基于消息传递的并行程序编程标准之一。基于MPI程序的特点,提出了MPI并行程序的Petri网模型——MPINet,给出了MPI函数的基本Petri网模型及对程序建模的基本步骤。定义了静态可执行的和并行正确的并行程序,并研究了MPINet的动态性质,包括安全性、可达性、可逆性以及活性。这些方法可以用于其他并行编程标准的分析。 展开更多
关键词 mpi PETRI网 mpiNet 动态性质
在线阅读 下载PDF
MPI+OpenMP环境下的二元合金三维相场模型的并行方法 被引量:2
20
作者 朱昶胜 邓新 +1 位作者 冯力 李浩 《兰州理工大学学报》 CAS 北大核心 2017年第4期16-22,共7页
针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+Op... 针对二元合金三维相场模型模拟研究中存在的计算区域小、计算效率低,难以满足二元合金大规模模拟的需求,提出基于MPI+OpenMP混合编程模式的并行方法.在相同计算规模下对MPI和OpenMP并行技术的优缺点进行分析.在计算机集群环境下对MPI+OpenMP混合编程模式和纯MPI并行方法的并行效率进行对比和分析.结果证明:基于MPI+OpenMP混合编程模式可以有效地扩大二元合金三维相场模型的计算规模;在多核集群环境下,相对于纯MPI并行方法,MPI+OpenMP混合编程可以更加有效地利用多核集群的多层次结构,取得更高的加速比和计算效率. 展开更多
关键词 相场法 二元合金 mpi mpi+OPENMP
在线阅读 下载PDF
上一页 1 2 90 下一页 到第
使用帮助 返回顶部