摘要 | 第2-3页 |
Abstract | 第3-4页 |
1 绪论 | 第8-14页 |
1.1 研究背景与意义 | 第8-9页 |
1.2 国内外相关研究进展 | 第9-11页 |
1.3 主要研究思路与内容 | 第11-13页 |
1.3.1 GPU应用程序优化研究 | 第11-12页 |
1.3.2 基于INT8量化的神经网络优化策略研究 | 第12页 |
1.3.3 GPU缓存调度策略优化研究 | 第12-13页 |
1.4 本文结构 | 第13-14页 |
2 相关背景知识介绍 | 第14-22页 |
2.1 CUDA | 第14-15页 |
2.2 神经网络低精度量化 | 第15-17页 |
2.2.1 低精度量化 | 第15-16页 |
2.2.2 NVIDIA INT8 | 第16-17页 |
2.3 GPU体系结构 | 第17-20页 |
2.3.1 GPU基准体系结构 | 第17-18页 |
2.3.2 GPU内存模型 | 第18-20页 |
2.4 GPGPU-Sim | 第20-22页 |
2.4.1 GPGPU-Sim简介 | 第20页 |
2.4.2 GPGPU-Sim模拟机制 | 第20-22页 |
3 GPU应用程序优化研究 | 第22-32页 |
3.1 AW细化算法概述 | 第22-23页 |
3.2 GPU优化策略 | 第23-27页 |
3.2.1 GPU系统下AW细化算法流程 | 第23-24页 |
3.2.2 查找表优化策略 | 第24-27页 |
3.2.3 滑动窗口优化策略 | 第27页 |
3.3 实验结果与分析 | 第27-31页 |
3.3.1 实验方法 | 第28页 |
3.3.2 加速比结果 | 第28-29页 |
3.3.3 NVVP详细数据分析 | 第29-31页 |
3.4 本章总结 | 第31-32页 |
4 基于INT8量化的神经网络优化策略研究 | 第32-40页 |
4.1 可行性探究 | 第32-33页 |
4.1.1 理论分析 | 第32页 |
4.1.2 实验分析 | 第32-33页 |
4.2 INT8量化方法 | 第33-35页 |
4.2.1 量化流程 | 第33页 |
4.2.2 两种INT8量化方法 | 第33-35页 |
4.3 INT8加速库 | 第35-37页 |
4.3.1 公式推演 | 第35-36页 |
4.3.2 CUDA加速实现 | 第36-37页 |
4.4 实验结果与分析 | 第37-39页 |
4.5 本章总结 | 第39-40页 |
5 GPU缓存调度策略优化研究 | 第40-57页 |
5.1 缓存调度研究概述 | 第40页 |
5.2 Decoupled L1D算法 | 第40-43页 |
5.2.1 Decoupled L1D算法概述 | 第40-41页 |
5.2.2 Decoupled L1D算法实验分析 | 第41-43页 |
5.3 Dynamic Decoupled L1D算法设计 | 第43-46页 |
5.3.1 算法流程结构 | 第43-44页 |
5.3.2 缓存状态度量标准 | 第44-45页 |
5.3.3 缓存状态变化探测器 | 第45-46页 |
5.4 实验与分析 | 第46-56页 |
5.4.1 实验方法 | 第46-47页 |
5.4.2 Metric选取实验分析 | 第47-49页 |
5.4.3 整体性能分析 | 第49-52页 |
5.4.4 L2和DRAM拥挤分析 | 第52页 |
5.4.5 硬件配置敏感度分析 | 第52-55页 |
5.4.6 硬件开销分析 | 第55-56页 |
5.5 本章总结 | 第56-57页 |
结论 | 第57-59页 |
参考文献 | 第59-63页 |
攻读硕士学位期间发表学术论文情况 | 第63-64页 |
致谢 | 第64-66页 |