摘要 | 第3-4页 |
Abstract | 第4页 |
目录 | 第5-7页 |
引言 | 第7-8页 |
第一章 绪论 | 第8-10页 |
1.1 研究的背景和意义 | 第8-9页 |
1.2 主要研究内容 | 第9-10页 |
第二章 并行计算机和并行程序设计概述 | 第10-15页 |
2.1 并行计算机 | 第10-11页 |
2.1.1 并行计算机的分类 | 第10-11页 |
2.1.2 并行计算机体系结构 | 第11页 |
2.1.3 PC 集群系统 | 第11页 |
2.2 并行程序设计 | 第11-13页 |
2.2.1 并行程序设计模型 | 第11-12页 |
2.2.2 并行程序设计语言 | 第12-13页 |
2.3 并行程序性能评测简介 | 第13-15页 |
第三章 基本的MPI 并行程序设计 | 第15-29页 |
3.1 MPI 简介 | 第15-17页 |
3.1.1 MPI 的涵义 | 第15页 |
3.1.2 MPI 的产生 | 第15-16页 |
3.1.3 MPI 的优势 | 第16-17页 |
3.1.4 MPI 的语言绑定 | 第17页 |
3.1.5 目前主要的几种MPI 实现 | 第17页 |
3.2 最常用的MPI 接口子集 | 第17-21页 |
3.2.1 MPI 的调用说明 | 第17-18页 |
3.2.2 MPI 的初始化和结束 | 第18-19页 |
3.2.3 获取当前进程标识 | 第19页 |
3.2.4 获取通信域中进程个数 | 第19页 |
3.2.5 发送和接收消息 | 第19-21页 |
3.3 MPI 预定义数据类型 | 第21页 |
3.4 MPI 中消息的组成 | 第21-22页 |
3.5 MPI中的通讯 | 第22-26页 |
3.5.1 通信域 | 第22页 |
3.5.2 MPI 中的四种通信模式 | 第22-23页 |
3.5.3 阻塞与非阻塞通信 | 第23-24页 |
3.5.4 组通信 | 第24-26页 |
3.6 MPI 程序设计中的基本问题 | 第26-29页 |
3.6.1 MPI 程序设计的基本框架结构 | 第26-27页 |
3.6.2 避免死锁 | 第27-28页 |
3.6.3 MPI 的两种基本编程模型 | 第28-29页 |
第四章 软件模式理论研究 | 第29-36页 |
4.1 软件模式理论概述 | 第29-31页 |
4.1.1 软件模式理论的起源和发展 | 第29页 |
4.1.2 模式的定义 | 第29-30页 |
4.1.3 模式的描述 | 第30-31页 |
4.1.4 模式的作用 | 第31页 |
4.2 与软件模式相关的几个概念 | 第31-33页 |
4.2.1 软件模式与面向对象 | 第31-32页 |
4.2.2 软件模式与数据结构和算法 | 第32-33页 |
4.2.3 软件模式与类库 | 第33页 |
4.2.4 软件模式与软件框架 | 第33页 |
4.3 模式的分类 | 第33-34页 |
4.4 模式间的关系 | 第34-35页 |
4.5 基于对象技术的软件模式对于并行程序设计的意义 | 第35-36页 |
第五章 MPI 并行程序设计中的软件模式解决方案 | 第36-53页 |
5.1 概述 | 第36页 |
5.2 用Wrapper Facade 模式对MPI 接口进行封装和整合 | 第36-42页 |
5.3 MPI 环境的初始化和结束- Singleton 模式的应用 | 第42-44页 |
5.4 应用Strategy 模式实现的SPMD 和MPMD 编程模型 | 第44-47页 |
5.5 引入线程-用于同步的模式 | 第47-48页 |
5.6 基于GUI 的并行程序解决方案- MVC 模式 | 第48-51页 |
5.7 模式对MPI 编程基本形式的改变及其进一步的应用 | 第51-53页 |
第六章 并行计算环境的建立和应用实例 | 第53-58页 |
6.1 并行计算环境的建立 | 第53-54页 |
6.1.1 系统结构的确定 | 第53页 |
6.1.2 MPI 程序的执行 | 第53-54页 |
6.2 用Plouffe_Bellard 算法计算任意精度π值 | 第54-56页 |
6.3 并行生成Mandelbrot 集 | 第56-58页 |
结论 | 第58-59页 |
参考文献 | 第59-61页 |
后记 | 第61-62页 |
在学期间公开发表论文及著作情况 | 第62页 |