摘要 | 第1-3页 |
Abstract | 第3-4页 |
目录 | 第4-6页 |
1 概论 | 第6-8页 |
·现状分析 | 第6页 |
·研制背景 | 第6-7页 |
·并行压缩算法构想梗概 | 第7-8页 |
2 压缩算法简介 | 第8-10页 |
·压缩算法发展历程 | 第8页 |
·压缩算法分类 | 第8页 |
·无损压缩 | 第8页 |
·有损压缩 | 第8页 |
·自适应算术编码 | 第8-10页 |
3 并行编程技术概述 | 第10-14页 |
·并行计算机体系结构 | 第10-11页 |
·分布内存结构 | 第10页 |
·共享内存结构 | 第10-11页 |
·并行程序编程环境 | 第11页 |
·并行算法设计 | 第11页 |
·基于消息传递的并行程序执行模式 | 第11-12页 |
·SPMD(Single Program Multiple Data)模式 | 第12页 |
·MPMD(Multiple Program Multiple Data)模式 | 第12页 |
·并行编程接口MPI简介 | 第12-14页 |
·应用现状 | 第13页 |
·MPI接口规范常用函数 | 第13页 |
·C语言对MPI接口库的引用 | 第13-14页 |
4 并行压缩程序算法分析 | 第14-33页 |
·并行压缩程序总体架构 | 第14页 |
·并行程序任务分割算法概述 | 第14-15页 |
·现有任务分解策略 | 第15页 |
·并行压缩程序任务分割算法设计 | 第15-20页 |
·熵的定义 | 第16页 |
·算法设计 | 第16-20页 |
·编码/解码算法 | 第20-33页 |
·基于上下文的统计模型 | 第20-21页 |
·零概率问题的解决 | 第21页 |
·基于上下文的自适应算术编码数据结构 | 第21-26页 |
·自适应算术编码器原理 | 第26-31页 |
·算术解码器原理 | 第31-33页 |
5 整合算术编码和并行编程技术 | 第33-48页 |
·并行编程原理 | 第33-39页 |
·单程序多数据流(SPMD,single program multiple-data) | 第33页 |
·机群计算环境配置 | 第33-35页 |
·消息传递接口MPI | 第35-39页 |
·理想并行计算 | 第39-42页 |
·原理简述 | 第39-40页 |
·举例说明 | 第40-41页 |
·执行效率分析 | 第41-42页 |
·同步与负载平衡 | 第42-44页 |
·同步的概念 | 第42页 |
·障栅函数 | 第42-43页 |
·障栅实现方式 | 第43-44页 |
·并行压缩程序的障栅原理 | 第44页 |
·映射 | 第44-47页 |
·映射的目标 | 第44-45页 |
·映射分类 | 第45页 |
·映射算法 | 第45-47页 |
·结论 | 第47-48页 |
6 并行压缩程序实现 | 第48-58页 |
·并行编程硬件环境搭建 | 第48-49页 |
·并行编程软件环境配置 | 第49-52页 |
·操作系统配置 | 第49-52页 |
·软件实现方案 | 第52-57页 |
·模块划分 | 第52页 |
·统计模块设计 | 第52-54页 |
·数据分割模块设计 | 第54-55页 |
·任务分配模块(映射模块) | 第55-56页 |
·编码器实现 | 第56-57页 |
·规约模块 | 第57页 |
·并行压缩程序实现总结 | 第57-58页 |
7 并行压缩程序性能分析 | 第58-61页 |
·Canturbury测试集介绍 | 第58页 |
·基于Canturbury全集的性能分析 | 第58-61页 |
8 前景展望与结论 | 第61-63页 |
·前景展望 | 第61页 |
·结束语 | 第61-63页 |
致谢 | 第63-64页 |
参考文献 | 第64页 |