摘要 | 第4-5页 |
abstract | 第5-6页 |
第一章 绪论 | 第12-18页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 研究现状 | 第13-16页 |
1.2.1 张量的研究及应用 | 第13-15页 |
1.2.2 GPU高性能计算应用及挑战 | 第15-16页 |
1.3 本文主要工作与贡献 | 第16页 |
1.4 论文章节安排 | 第16-18页 |
第二章 相关理论基础 | 第18-32页 |
2.1 张量近似 | 第18-25页 |
2.1.1 Tucker模型及其压缩特性 | 第18页 |
2.1.2 Tucker分解及重构 | 第18-23页 |
2.1.3 Tucker分解的高阶正交迭代 | 第23-25页 |
2.2 并行程序设计方法 | 第25-28页 |
2.2.1 程序并行化设计方法 | 第25-27页 |
2.2.2 基于GPU的程序并行化 | 第27-28页 |
2.3 GPU架构及CUDA编程模型 | 第28-31页 |
2.3.1 GPU架构 | 第28页 |
2.3.2 CUDA编程模型 | 第28-31页 |
2.4 本章小结 | 第31-32页 |
第三章 GPU性能分析模型研究 | 第32-49页 |
3.1 引言 | 第32页 |
3.2 相关理论研究 | 第32-36页 |
3.2.1 并行计算模型 | 第32-34页 |
3.2.2 GPU性能分析 | 第34-36页 |
3.3 GPU性能分析模型 | 第36-43页 |
3.3.1 构建性能分析模型 | 第36-37页 |
3.3.2 程序执行开销模型 | 第37-43页 |
3.4 仿真结果及分析 | 第43-48页 |
3.4.1 仿真环境 | 第43-44页 |
3.4.2 结果及分析 | 第44-48页 |
3.5 本章小结 | 第48-49页 |
第四章 基于GPU的Tucker分解及重构方法研究 | 第49-64页 |
4.1 引言 | 第49页 |
4.2 相关理论研究 | 第49-51页 |
4.2.1 快速张量分解方法 | 第49-50页 |
4.2.2 基于GPU的张量研究 | 第50-51页 |
4.3 基于GPU的Tucker分解及重构的并行化方法 | 第51-61页 |
4.3.1 串行程序性能剖析 | 第51-54页 |
4.3.2 并行高阶正交迭代 | 第54-56页 |
4.3.3 基于GPU的并行Tucker分解及重构算法 | 第56-61页 |
4.4 仿真结果及分析 | 第61-63页 |
4.5 本章小结 | 第63-64页 |
第五章 基于连续多分辨率的三维地震数据可视化 | 第64-73页 |
5.1 引言 | 第64页 |
5.2 基于八叉树的地震数据管理 | 第64-65页 |
5.3 基于张量的连续多分辨率数据管理 | 第65-67页 |
5.4 三维地震数据可视化 | 第67-69页 |
5.5 仿真分析 | 第69-72页 |
5.6 本章小结 | 第72-73页 |
第六章 总结与展望 | 第73-75页 |
6.1 工作总结 | 第73页 |
6.2 工作展望 | 第73-75页 |
致谢 | 第75-76页 |
参考文献 | 第76-79页 |
攻读硕士期间取得的研究成果 | 第79页 |