基于GPU的多帧盲解卷积图像复原并行化研究
摘要 | 第9-10页 |
ABSTRACT | 第10页 |
第一章 绪论 | 第11-21页 |
1.1 课题背景及研究意义 | 第11-12页 |
1.2 盲解卷积图像复原技术概况与现状 | 第12-15页 |
1.3 并行化技术发展与现状 | 第15-20页 |
1.3.1 并行技术发展概述 | 第15-17页 |
1.3.2 GPU发展概述 | 第17-18页 |
1.3.3 图像复原领域的并行化应用 | 第18-20页 |
1.4 本文主要内容及结构安排 | 第20-21页 |
第二章 盲解卷积图像复原理论及实现 | 第21-30页 |
2.1 盲解卷积图像复原理论 | 第21-23页 |
2.1.1 图像成像与复原模型 | 第21-22页 |
2.1.2 基于Bayes原理的盲解卷积图像复原 | 第22-23页 |
2.2 多帧迭代盲解卷积算法实现 | 第23-25页 |
2.2.1 混合噪声模型代价函数构造 | 第23-24页 |
2.2.2 最优化方法 | 第24-25页 |
2.3 成像物理约束施加方法 | 第25-29页 |
2.3.1 盲解卷积的病态性 | 第25-26页 |
2.3.2 成像物理约束 | 第26-28页 |
2.3.3 成像物理约束算法实现 | 第28-29页 |
2.4 本章小结 | 第29-30页 |
第三章 GPU通用计算 | 第30-41页 |
3.1 CPU-GPU异构并行模式 | 第30-33页 |
3.1.1 CPU与GPU架构的区别 | 第30-31页 |
3.1.2 CPU-GPU异构执行方式 | 第31页 |
3.1.3 CPU-GPU异构优势 | 第31-33页 |
3.2 CUDA编程概述 | 第33-36页 |
3.2.1 CUDA执行过程 | 第33-34页 |
3.2.2 线程结构 | 第34-35页 |
3.2.3 CUDA软件体系 | 第35-36页 |
3.3 CUDA存储器模型 | 第36-39页 |
3.3.1 主机内存和GPU全局内存 | 第37-38页 |
3.3.2 寄存器与局部存储器 | 第38-39页 |
3.3.3 常数存储器和纹理存储器 | 第39页 |
3.3.4 共享存储器 | 第39页 |
3.4 CUDA程序优化过程 | 第39-40页 |
3.5 本章小结 | 第40-41页 |
第四章 并行化方案设计 | 第41-62页 |
4.1 串行算法分析 | 第41-45页 |
4.1.1 串行算法结构分析 | 第41-42页 |
4.1.2 串行算法耗时及复原效果 | 第42-45页 |
4.1.3 并行算法设计思路 | 第45页 |
4.2 交替迭代方法并行优化 | 第45-51页 |
4.2.1 迭代方法介绍 | 第46-47页 |
4.2.2 改进的并行交替迭代方法性能测试 | 第47-50页 |
4.2.3 结果分析 | 第50-51页 |
4.3 数据分组并行处理优化 | 第51-57页 |
4.3.1 数据分组处理方式 | 第52-54页 |
4.3.2 数据分组策略 | 第54-57页 |
4.4 似然项求导并行优化 | 第57-60页 |
4.4.1 似然项求导串行算法实现 | 第57-58页 |
4.4.2 快速傅里叶变换的优化 | 第58-59页 |
4.4.3 分步计算方式的优化 | 第59-60页 |
4.5 本章小结 | 第60-62页 |
第五章 并行化实现及结果分析 | 第62-75页 |
5.1 盲解卷积图像复原的并行化实现 | 第62-69页 |
5.1.1 快速傅里叶变化的加速 | 第62-65页 |
5.1.2 合并运算方式的优化 | 第65-66页 |
5.1.3 减少动态内存分配 | 第66页 |
5.1.4 任务划分方式的优化 | 第66-67页 |
5.1.5 主机-设备通信优化 | 第67-69页 |
5.2 复原效果及速度提升分析 | 第69-74页 |
5.2.1 并行算法复原效果 | 第69-72页 |
5.2.2 加速效果分析 | 第72-73页 |
5.2.3 CUDA程序的进一步优化 | 第73-74页 |
5.3 本章小结 | 第74-75页 |
第六章 总结与展望 | 第75-77页 |
致谢 | 第77-78页 |
参考文献 | 第78-81页 |
作者在学期间取得的学术成果 | 第81页 |