中文摘要 | 第1-5页 |
英文摘要 | 第5-6页 |
目录 | 第6-8页 |
引言 | 第8-9页 |
第一章 并行计算简介 | 第9-19页 |
·从超级计算到高性能计算 | 第9页 |
·高性能计算应用领域的变迁 | 第9-10页 |
·并行计算的概念 | 第10-11页 |
·可扩展的并行计算机体系结构 | 第11-16页 |
·根据指令流和数据流的不同的计算机系统分类 | 第11-12页 |
·按同时执行的程序和数据的不同的计算机系统分类 | 第12-13页 |
·五种实际物理机模型 | 第13-16页 |
·并行计算机硬件结构抽象模型 | 第16-17页 |
·并行计算机的发展 | 第17-19页 |
第二章 MPI简介 | 第19-26页 |
·并行计算发展的障碍 | 第19页 |
·硬件上的障碍 | 第19页 |
·软件上的障碍 | 第19页 |
·并行算法的设计 | 第19-21页 |
·MPI概述 | 第21页 |
·MPI的目的 | 第21-22页 |
·MPI的特点 | 第22-23页 |
·MPI的的特性 | 第23-24页 |
·点对点通信 | 第23页 |
·群体操作 | 第23-24页 |
·进程组 | 第24页 |
·通信上下文 | 第24页 |
·进程拓扑结构 | 第24页 |
·MPI环境管理 | 第24页 |
·监视程序接口 | 第24页 |
·MPI现有的各种实现 | 第24-26页 |
第三章 基本的MPI并行程序设计 | 第26-38页 |
·MPI的实现环境 | 第26-30页 |
·集群的概念 | 第26页 |
·集群的分类 | 第26-29页 |
·集群的优点 | 第29-30页 |
·六个接口构成的MPI子集 | 第30-32页 |
·MPI调用接口1:MPI_INIT(MPI初始化) | 第30页 |
·MPI调用接口2:MPI_FINALIZE(MPI结束) | 第30页 |
·MPI调用接口3:MPI_COMM_RANK(当前进程标识) | 第30页 |
·MPI调用接口4:MPI_COMM_SIZE(通信域包含的进程数) | 第30页 |
·MPI调用接口5:MPI_SEND(消息发送) | 第30-31页 |
·MPI调用接口6:MPI_RECV(消息接收) | 第31-32页 |
·MPI调用的参数说明 | 第32页 |
·MPI的程序框架 | 第32-33页 |
·MPI预定义数据类型 | 第33页 |
·MPI的消息 | 第33-34页 |
·MPI消息的组成 | 第33-34页 |
·任意源和任意标识 | 第34页 |
·MPI通信域 | 第34页 |
·MPI的通信模式 | 第34-36页 |
·标准通信模式 | 第34-35页 |
·缓存通信模式 | 第35页 |
·同步通信模式 | 第35-36页 |
·就绪通信模式 | 第36页 |
·MPI并行程序的基本模式 | 第36-38页 |
·对等模式 | 第36-37页 |
·主从模式 | 第37-38页 |
第四章 并行计算平台的分析与设计 | 第38-47页 |
·并行计算平台总体架构 | 第38页 |
·计算平台实现的相关技术 | 第38-39页 |
·并行计算平台的系统分析 | 第39-47页 |
·对象层定义 | 第39-41页 |
·结构与实例连接层定义 | 第41-42页 |
·主题层定义 | 第42-43页 |
·属性层定义 | 第43-46页 |
·用例视图 | 第46-47页 |
第五章 并行计算平台的实现 | 第47-54页 |
·MPI程序执行的基本流程 | 第47页 |
·具体实现 | 第47-54页 |
·MonitorInfo类 | 第47-48页 |
·MonitorPollHandler类 | 第48-49页 |
·MonitorJob类 | 第49-50页 |
·MonitorJobManagement类 | 第50页 |
·RPCComm类 | 第50-51页 |
·DispatcherNode类 | 第51-52页 |
·Process类 | 第52-53页 |
·TestDeadWorker类 | 第53-54页 |
第六章 结论与展望 | 第54-55页 |
参考文献 | 第55-57页 |
在学期间的科研成果 | 第57-58页 |
后记 | 第58页 |