NS方程在GPU上的并行实现
摘要 | 第1-5页 |
ABSTRACT | 第5-9页 |
第一章 绪论 | 第9-17页 |
·研究背景与意义 | 第9-10页 |
·国内外CFD 并行技术的研究现状 | 第10-15页 |
·基于分布式存储器的CFD 并行技术发展状况 | 第10-11页 |
·基于共享存储器的CFD 并行技术发展状况 | 第11-13页 |
·基于GPU 的CFD 并行技术发展状况 | 第13-15页 |
·本文的主要研究工作 | 第15-17页 |
第二章 RANS 方程的求解 | 第17-31页 |
·控制方程 | 第17-18页 |
·湍流模型 | 第18-20页 |
·有限体积法空间离散 | 第20-21页 |
·对流通量计算 | 第20-21页 |
·黏性通量计算 | 第21页 |
·RUNGE-KUTTA 显式时间推进 | 第21-22页 |
·边界条件 | 第22-23页 |
·固壁边界条件 | 第22页 |
·远场边界条件 | 第22-23页 |
·加速收敛方法 | 第23-24页 |
·当地时间步长 | 第23-24页 |
·隐式残差平滑 | 第24页 |
·程序流程 | 第24-25页 |
·串行算例校验 | 第25-30页 |
·本章小结 | 第30-31页 |
第三章 GPU 上N-S 方程并行算法设计 | 第31-43页 |
·并行计算概念介绍 | 第31-32页 |
·并发、并行与并行度 | 第31页 |
·粒度 | 第31页 |
·加速比及定律 | 第31-32页 |
·并行效率及可扩展性 | 第32页 |
·负载均衡 | 第32页 |
·热点 | 第32页 |
·CUDA 体系结构介绍 | 第32-36页 |
·CUDA 编程模型 | 第32-35页 |
·CUDA 编程语言 | 第35页 |
·硬件执行 | 第35-36页 |
·PCAM 设计过程 | 第36-42页 |
·任务的划分 | 第37-39页 |
·通信分析 | 第39页 |
·任务聚合 | 第39-40页 |
·GPU 上的映射 | 第40-42页 |
·本章小结 | 第42-43页 |
第四章 关键技术及实现 | 第43-48页 |
·矩阵转换 | 第43-44页 |
·主存与GPU 数据传输的最小化 | 第44-45页 |
·GLOBAL MEMORY 访问的优化 | 第45-47页 |
·同步实现 | 第47页 |
·本章小结 | 第47-48页 |
第五章 数值算例及分析 | 第48-60页 |
·并行环境介绍 | 第48页 |
·M6 机翼串并行计算结果对比 | 第48-52页 |
·某机翼串并行计算结果对比 | 第52-58页 |
·结果分析 | 第58页 |
·正确性 | 第58页 |
·可扩展性 | 第58页 |
·本章小结 | 第58-60页 |
第六章 总结与展望 | 第60-62页 |
·总结 | 第60页 |
·展望 | 第60-62页 |
参考文献 | 第62-67页 |
致谢 | 第67-68页 |
攻读硕士期间发表的学术论文 | 第68-71页 |
附录 | 第71页 |