第一章 MPI背景及最新发展 | 第1-15页 |
§1.1 MPI出现背景 | 第9-10页 |
§1.2 并行计算机模型和并行程序设计模型 | 第10-12页 |
1.2.1 并行计算机模型 | 第10页 |
1.2.2 并行程序设计模型 | 第10-11页 |
1.2.3 消息传递模型的优点 | 第11-12页 |
§1.3 并行体系结构 | 第12-13页 |
1.3.1 并行计算机结构模型 | 第12页 |
1.3.2 并行计算机访存模型 | 第12-13页 |
§1.4 PC机群最新发展 | 第13-15页 |
第二章 利用MPI进行程序设计 | 第15-25页 |
§2.1 并行程序设计原理 | 第15-17页 |
2.1.1 发送数据(SendingData) | 第15页 |
2.1.2 接收数据 | 第15-16页 |
2.1.3 约定协议 | 第16页 |
2.1.4 MPI发送方式的匹配协议 | 第16页 |
2.1.5 两种协议的比较 | 第16-17页 |
§2.2 用MPI实现并行程序设计 | 第17-23页 |
2.2.1 MPI调用的参数说明 | 第18页 |
2.2.2 六个基本的函数调用 | 第18-21页 |
2.2.3 并行算法的实现 | 第21-23页 |
§2.3 数据传输的可靠性 | 第23-25页 |
第三章 MPI的使用分析 | 第25-37页 |
§3.1 非阻塞通信 | 第25-30页 |
§3.2 虚拟拓扑结构 | 第30-33页 |
§3.3 用非阻塞通信实现迭代 | 第33-37页 |
第四章 并行库 | 第37-45页 |
§4.1 并行库 | 第37-38页 |
4.1.1 对并行库的需求 | 第37页 |
4.1.2 支持库的MPI特征 | 第37-38页 |
§4.2 创建并行库 | 第38-43页 |
4.2.1 用Ibcast例程构建并行库 | 第38-40页 |
4.2.2 用Ibcast例程中的广播树 | 第40-42页 |
4.2.3 对例程MPI_Comm_dup的一个C++改进 | 第42-43页 |
§4.3 构建并行库的策略 | 第43-45页 |
第五章 MPI_2中的并行I/O | 第45-59页 |
§5.1 MPI_2中的新特性 | 第45-48页 |
5.1.1 并行I/O | 第45-46页 |
5.1.2 远程内存操作 | 第46页 |
5.1.3 动态进程管理 | 第46-47页 |
5.1.4 其它的新特性 | 第47-48页 |
§5.2 并行I/O中的三种文件指针 | 第48-50页 |
5.2.1 单个文件指针 | 第48-49页 |
5.2.2 使用直接偏移量 | 第49-50页 |
5.2.3 共享文件指针 | 第50页 |
§5.3 非连续访存和collective I/O | 第50-54页 |
5.3.1 非连续访存 | 第51-52页 |
5.3.2 collective I/O | 第52-54页 |
§5.4 两种派生数据类型 | 第54-57页 |
5.4.1 分布式数组 | 第54-55页 |
5.4.2 subarray数据类型的结构 | 第55-56页 |
5.4.3 Ghost领域中的本地组 | 第56-57页 |
§5.5 四层访问模式改进collective I/O操作 | 第57-59页 |
5.5.1 四个层次的访存 | 第57-59页 |
第六章 利用MPI提高并行系统的有效速度 | 第59-71页 |
§6.1 存储器分层技术 | 第59-60页 |
§6.2 常用线性计算模型的cache利用率与计算机有效速度 | 第60-63页 |
6.2.1 Cache利用率CUR(Cache Using Ratio) | 第60页 |
6.2.2 常用线性计算模型的CUR及其测试验证 | 第60-62页 |
6.2.3 在并行程序中获得计算机有效浮点速度的方法 | 第62-63页 |
§6.3 矩阵复位的算法及编程 | 第63-66页 |
§6.4 负载平衡的研究分析 | 第66-69页 |
§6.5 存在的问题及进一步的工作 | 第69-71页 |
致谢 | 第71-72页 |
参考文献 | 第72-74页 |