| 摘要 | 第1-3页 |
| Abstract | 第3-4页 |
| 目录 | 第4-6页 |
| 1 概论 | 第6-8页 |
| ·现状分析 | 第6页 |
| ·研制背景 | 第6-7页 |
| ·并行压缩算法构想梗概 | 第7-8页 |
| 2 压缩算法简介 | 第8-10页 |
| ·压缩算法发展历程 | 第8页 |
| ·压缩算法分类 | 第8页 |
| ·无损压缩 | 第8页 |
| ·有损压缩 | 第8页 |
| ·自适应算术编码 | 第8-10页 |
| 3 并行编程技术概述 | 第10-14页 |
| ·并行计算机体系结构 | 第10-11页 |
| ·分布内存结构 | 第10页 |
| ·共享内存结构 | 第10-11页 |
| ·并行程序编程环境 | 第11页 |
| ·并行算法设计 | 第11页 |
| ·基于消息传递的并行程序执行模式 | 第11-12页 |
| ·SPMD(Single Program Multiple Data)模式 | 第12页 |
| ·MPMD(Multiple Program Multiple Data)模式 | 第12页 |
| ·并行编程接口MPI简介 | 第12-14页 |
| ·应用现状 | 第13页 |
| ·MPI接口规范常用函数 | 第13页 |
| ·C语言对MPI接口库的引用 | 第13-14页 |
| 4 并行压缩程序算法分析 | 第14-33页 |
| ·并行压缩程序总体架构 | 第14页 |
| ·并行程序任务分割算法概述 | 第14-15页 |
| ·现有任务分解策略 | 第15页 |
| ·并行压缩程序任务分割算法设计 | 第15-20页 |
| ·熵的定义 | 第16页 |
| ·算法设计 | 第16-20页 |
| ·编码/解码算法 | 第20-33页 |
| ·基于上下文的统计模型 | 第20-21页 |
| ·零概率问题的解决 | 第21页 |
| ·基于上下文的自适应算术编码数据结构 | 第21-26页 |
| ·自适应算术编码器原理 | 第26-31页 |
| ·算术解码器原理 | 第31-33页 |
| 5 整合算术编码和并行编程技术 | 第33-48页 |
| ·并行编程原理 | 第33-39页 |
| ·单程序多数据流(SPMD,single program multiple-data) | 第33页 |
| ·机群计算环境配置 | 第33-35页 |
| ·消息传递接口MPI | 第35-39页 |
| ·理想并行计算 | 第39-42页 |
| ·原理简述 | 第39-40页 |
| ·举例说明 | 第40-41页 |
| ·执行效率分析 | 第41-42页 |
| ·同步与负载平衡 | 第42-44页 |
| ·同步的概念 | 第42页 |
| ·障栅函数 | 第42-43页 |
| ·障栅实现方式 | 第43-44页 |
| ·并行压缩程序的障栅原理 | 第44页 |
| ·映射 | 第44-47页 |
| ·映射的目标 | 第44-45页 |
| ·映射分类 | 第45页 |
| ·映射算法 | 第45-47页 |
| ·结论 | 第47-48页 |
| 6 并行压缩程序实现 | 第48-58页 |
| ·并行编程硬件环境搭建 | 第48-49页 |
| ·并行编程软件环境配置 | 第49-52页 |
| ·操作系统配置 | 第49-52页 |
| ·软件实现方案 | 第52-57页 |
| ·模块划分 | 第52页 |
| ·统计模块设计 | 第52-54页 |
| ·数据分割模块设计 | 第54-55页 |
| ·任务分配模块(映射模块) | 第55-56页 |
| ·编码器实现 | 第56-57页 |
| ·规约模块 | 第57页 |
| ·并行压缩程序实现总结 | 第57-58页 |
| 7 并行压缩程序性能分析 | 第58-61页 |
| ·Canturbury测试集介绍 | 第58页 |
| ·基于Canturbury全集的性能分析 | 第58-61页 |
| 8 前景展望与结论 | 第61-63页 |
| ·前景展望 | 第61页 |
| ·结束语 | 第61-63页 |
| 致谢 | 第63-64页 |
| 参考文献 | 第64页 |