摘要 | 第5-6页 |
ABSTRACT | 第6页 |
CHAPTER 1: INTRODUCTION | 第10-26页 |
1.1 Thesis background and significance | 第10-11页 |
1.2 Accelerating compute boards: from ASICs to GPU computing | 第11-12页 |
1.3 Computing with Graphic Processing Units | 第12-15页 |
1.3.1 Fixed-function pipelines to fully programmable shaders | 第12-14页 |
1.3.2 General Purpose GPUs | 第14-15页 |
1.3.3 From GPGPU to GPU Computing | 第15页 |
1.4 Programming Environments | 第15-22页 |
1.4.1 Low-level Vendor Toolkits | 第16-19页 |
1.4.2 Era of libraries | 第19-22页 |
1.5 Future Trends | 第22-23页 |
1.6 Thesis Objectives | 第23-25页 |
1.7 Thesis organization | 第25-26页 |
CHAPTER 2: LIT: DESIGN HIGH PERFORMANCE MASSIVE DATA COMPUTINGFRAMEWORK BASED ON CPU/GPU CLUSTE | 第26-37页 |
2.1 LIT definition | 第26页 |
2.2 Preliminaries and Related work | 第26-29页 |
2.2.1 Data-intensive Computing with Hadoop Map Reduce | 第26-27页 |
2.2.2 GPGPU | 第27-28页 |
2.2.3 GPU based Map Reduce frameworks | 第28-29页 |
2.3 System Design and implementation | 第29-37页 |
2.3.1 Architecture Overview | 第30-31页 |
2.3.2 Lit Workflow | 第31-35页 |
2.3.3 Directives Design | 第35-37页 |
CHAPTER 3: SCHEDULING AND OPTIMIZATION | 第37-61页 |
3.1 Work?ow Optimization | 第37-38页 |
3.2 Memory Copy Optimization | 第38-42页 |
3.3 Instructions fusion Optimization | 第42-50页 |
3.3.1 Instruction Fusion as an Optimization Method | 第43-44页 |
3.3.2 The Benefits of Instruction Fusion | 第44-46页 |
3.3.3 Automating instruction based data Fusion | 第46-49页 |
3.3.4 Instructions Fusion | 第49-50页 |
3.4 CPU/GPU data communication scheduling | 第50-61页 |
3.4.1 Data communication scheduler | 第52-61页 |
CHAPTER 4: RESULTS AND DISCUSSION | 第61-68页 |
4.1 Experimental Setup | 第61-62页 |
4.2 Benchmark et Evaluation | 第62-63页 |
4.3 Evaluation Data set | 第63-67页 |
4.3.1 Measurements with MM, FFT&SCAN | 第63-66页 |
4.3.2 Measurements With instructions Fusion | 第66-67页 |
4.4 Discussion | 第67-68页 |
CONCLUSION | 第68-69页 |
REFERENCES | 第69-75页 |
ACKNOWLEDGEMENT | 第75页 |