| 中文摘要 | 第1-5页 |
| 英文摘要 | 第5-6页 |
| 目录 | 第6-8页 |
| 引言 | 第8-9页 |
| 第一章 并行计算简介 | 第9-19页 |
| ·从超级计算到高性能计算 | 第9页 |
| ·高性能计算应用领域的变迁 | 第9-10页 |
| ·并行计算的概念 | 第10-11页 |
| ·可扩展的并行计算机体系结构 | 第11-16页 |
| ·根据指令流和数据流的不同的计算机系统分类 | 第11-12页 |
| ·按同时执行的程序和数据的不同的计算机系统分类 | 第12-13页 |
| ·五种实际物理机模型 | 第13-16页 |
| ·并行计算机硬件结构抽象模型 | 第16-17页 |
| ·并行计算机的发展 | 第17-19页 |
| 第二章 MPI简介 | 第19-26页 |
| ·并行计算发展的障碍 | 第19页 |
| ·硬件上的障碍 | 第19页 |
| ·软件上的障碍 | 第19页 |
| ·并行算法的设计 | 第19-21页 |
| ·MPI概述 | 第21页 |
| ·MPI的目的 | 第21-22页 |
| ·MPI的特点 | 第22-23页 |
| ·MPI的的特性 | 第23-24页 |
| ·点对点通信 | 第23页 |
| ·群体操作 | 第23-24页 |
| ·进程组 | 第24页 |
| ·通信上下文 | 第24页 |
| ·进程拓扑结构 | 第24页 |
| ·MPI环境管理 | 第24页 |
| ·监视程序接口 | 第24页 |
| ·MPI现有的各种实现 | 第24-26页 |
| 第三章 基本的MPI并行程序设计 | 第26-38页 |
| ·MPI的实现环境 | 第26-30页 |
| ·集群的概念 | 第26页 |
| ·集群的分类 | 第26-29页 |
| ·集群的优点 | 第29-30页 |
| ·六个接口构成的MPI子集 | 第30-32页 |
| ·MPI调用接口1:MPI_INIT(MPI初始化) | 第30页 |
| ·MPI调用接口2:MPI_FINALIZE(MPI结束) | 第30页 |
| ·MPI调用接口3:MPI_COMM_RANK(当前进程标识) | 第30页 |
| ·MPI调用接口4:MPI_COMM_SIZE(通信域包含的进程数) | 第30页 |
| ·MPI调用接口5:MPI_SEND(消息发送) | 第30-31页 |
| ·MPI调用接口6:MPI_RECV(消息接收) | 第31-32页 |
| ·MPI调用的参数说明 | 第32页 |
| ·MPI的程序框架 | 第32-33页 |
| ·MPI预定义数据类型 | 第33页 |
| ·MPI的消息 | 第33-34页 |
| ·MPI消息的组成 | 第33-34页 |
| ·任意源和任意标识 | 第34页 |
| ·MPI通信域 | 第34页 |
| ·MPI的通信模式 | 第34-36页 |
| ·标准通信模式 | 第34-35页 |
| ·缓存通信模式 | 第35页 |
| ·同步通信模式 | 第35-36页 |
| ·就绪通信模式 | 第36页 |
| ·MPI并行程序的基本模式 | 第36-38页 |
| ·对等模式 | 第36-37页 |
| ·主从模式 | 第37-38页 |
| 第四章 并行计算平台的分析与设计 | 第38-47页 |
| ·并行计算平台总体架构 | 第38页 |
| ·计算平台实现的相关技术 | 第38-39页 |
| ·并行计算平台的系统分析 | 第39-47页 |
| ·对象层定义 | 第39-41页 |
| ·结构与实例连接层定义 | 第41-42页 |
| ·主题层定义 | 第42-43页 |
| ·属性层定义 | 第43-46页 |
| ·用例视图 | 第46-47页 |
| 第五章 并行计算平台的实现 | 第47-54页 |
| ·MPI程序执行的基本流程 | 第47页 |
| ·具体实现 | 第47-54页 |
| ·MonitorInfo类 | 第47-48页 |
| ·MonitorPollHandler类 | 第48-49页 |
| ·MonitorJob类 | 第49-50页 |
| ·MonitorJobManagement类 | 第50页 |
| ·RPCComm类 | 第50-51页 |
| ·DispatcherNode类 | 第51-52页 |
| ·Process类 | 第52-53页 |
| ·TestDeadWorker类 | 第53-54页 |
| 第六章 结论与展望 | 第54-55页 |
| 参考文献 | 第55-57页 |
| 在学期间的科研成果 | 第57-58页 |
| 后记 | 第58页 |