首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于GPU并行计算的性能优化研究

摘要第4-5页
Abstract第5页
第1章 绪论第8-12页
    1.1 论文研究背景和意义第8-10页
    1.2 国内外研究现状第10页
    1.3 论文主要内容及结构安排第10-12页
第2章 CUDA 概述第12-21页
    2.1 引言第12页
    2.2 CUDA 并行计算框架第12-18页
        2.2.1 CUDA 基本组成第12页
        2.2.2 CPU 与 GPU 的协作第12-13页
        2.2.3 GPU 的线程层次结构第13-15页
        2.2.4 存储器的结构分层第15-17页
        2.2.5 CUDA 软件堆栈的结构分层第17-18页
    2.3 CUDA 技术的编程模型第18-20页
        2.3.1 CUDA 基本编程知识第18页
        2.3.2 Block 内部通信原理第18-19页
        2.3.3 计算及执行单元第19-20页
    2.4 本章小结第20-21页
第3章 CUDA 性能优化研究第21-32页
    3.1 引言第21页
    3.2 线程块优化第21-25页
        3.2.1 减少 warp 块内线程分支第21-23页
        3.2.2 增大并行规模第23-24页
        3.2.3 使用分组技术第24-25页
    3.3 与存储器相关的优化第25-28页
        3.3.1 使用分块技术第25-26页
        3.3.2 使用数据预取第26页
        3.3.3 存储器合并第26-27页
        3.3.4 避免 bank 冲突第27-28页
    3.4 降低指令开销第28-29页
        3.4.1 循环展开第28页
        3.4.2 优化算术指令第28-29页
    3.5 资源分配优化第29-30页
        3.5.1 线程配置第29-30页
        3.5.2 资源占用率第30页
    3.6 本章小结第30-32页
第4章 CUDA 性能优化实现及分析第32-55页
    4.1 资源分配优化实现第32-36页
    4.2 存储器访问优化实现第36-40页
        4.2.1 全局存储器的优化第37-40页
        4.2.2 共享存储器的优化第40页
    4.3 CUDA 优化应用及实现分析第40-45页
    4.4 基于 CUDA 的流体仿真第45-51页
        4.4.1 核心问题描述第46-47页
        4.4.2 仿真处理流程第47-48页
        4.4.3 数据存储设计第48页
        4.4.4 仿真的关键问题实现第48-49页
        4.4.5 实验结果及分析第49-51页
    4.5 CUDA 烟雾粒子仿真第51-54页
    4.6 本章小结第54-55页
第5章 结束语第55-56页
参考文献第56-58页
作者简介及在学期间所取得的科研成果第58-59页
致谢第59页

论文共59页,点击 下载论文
上一篇:基于领域本体的概念相关度研究
下一篇:基于MVC框架的大连智慧交通系统的设计与实现