基于GPU的信息融合滤波过程并行技术研究
摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第1章 绪论 | 第10-18页 |
1.1 论文背景与意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-15页 |
1.2.1 信息融合技术及其研究现状 | 第11-13页 |
1.2.2 GPU并行技术研究现状 | 第13-14页 |
1.2.3 信息融合并行处理技术国内外现状 | 第14-15页 |
1.3 论文主要研究内容和工作 | 第15页 |
1.4 论文组织结构 | 第15-18页 |
第2章 CUDA编程模型 | 第18-26页 |
2.1 计算机结构类型 | 第18-19页 |
2.2 CPU与GPU对比介绍 | 第19-20页 |
2.3 GPU内存架构 | 第20-25页 |
2.3.1 CUDA常用概念介绍 | 第20-21页 |
2.3.2 主机端与设备端 | 第21-23页 |
2.3.3 CUDA存储器介绍 | 第23-25页 |
2.4 本章小结 | 第25-26页 |
第3章 并行算法设计 | 第26-38页 |
3.1 GPU程序设计原则 | 第26-30页 |
3.1.1 GPU负载均衡 | 第26-28页 |
3.1.2 GPU吞吐量 | 第28页 |
3.1.3 CPU和GPU合作 | 第28-29页 |
3.1.4 CUDA程序设计原则 | 第29-30页 |
3.2 信息融合并行算法设计 | 第30-31页 |
3.3 线程划分 | 第31-35页 |
3.3.1 数据读入线程 | 第33-34页 |
3.3.2 GPU控制线程 | 第34-35页 |
3.3.3 GPU并行线程 | 第35页 |
3.4 并行算法评估 | 第35-37页 |
3.4.1 额外时间、空间消耗评估 | 第35-36页 |
3.4.2 时间、空间消耗评估 | 第36-37页 |
3.5 本章小结 | 第37-38页 |
第4章 算法实现 | 第38-47页 |
4.1 实验环境 | 第38页 |
4.2 实现难点 | 第38-43页 |
4.2.1 并行模块选择 | 第38-42页 |
4.2.2 关键数据结构改造 | 第42-43页 |
4.3 CUDA编程语言特点 | 第43页 |
4.4 滤波算法并行实现流程 | 第43-46页 |
4.5 本章小结 | 第46-47页 |
第5章 结果分析 | 第47-57页 |
5.1 性能 | 第47-48页 |
5.1.1 加速比 | 第47页 |
5.1.2 可扩展性 | 第47-48页 |
5.2 仿真分析 | 第48-54页 |
5.2.1 测量时间方法 | 第48页 |
5.2.2 算法性能及结果分析 | 第48-53页 |
5.2.3 并行前后结果对比分析 | 第53-54页 |
5.3 程序优化方法 | 第54-56页 |
5.3.1 逻辑优化 | 第55页 |
5.3.2 优化内存的访问 | 第55-56页 |
5.4 本章小结 | 第56-57页 |
总结与展望 | 第57-58页 |
参考文献 | 第58-61页 |
致谢 | 第61页 |