| 摘要 | 第4-5页 |
| ABSTRACT | 第5-6页 |
| 第1章 绪论 | 第9-17页 |
| 1.1 课题研究背景及意义 | 第9-10页 |
| 1.2 网络加速训练的国内外研究现状及分析 | 第10-15页 |
| 1.2.1 国外研究现状 | 第10-13页 |
| 1.2.2 国内研究现状 | 第13-14页 |
| 1.2.3 国内外文献综述的简析 | 第14-15页 |
| 1.3 本文主要研究内容 | 第15页 |
| 1.4 本文的结构 | 第15-17页 |
| 第2章 神经网络模型及其学习方法 | 第17-27页 |
| 2.1 人工神经网络概述 | 第17-20页 |
| 2.1.1 神经网络的基本概念 | 第17-19页 |
| 2.1.2 多层前馈神经网络 | 第19-20页 |
| 2.2 BP神经网络模型 | 第20-24页 |
| 2.2.1 神经网络的误差反向传播 | 第21-22页 |
| 2.2.2 梯度下降算法分析 | 第22-24页 |
| 2.3 对异步随机梯度下降算法的研究 | 第24-26页 |
| 2.4 本章小结 | 第26-27页 |
| 第3章 基于CUDA的加速训练算法的研究与设计 | 第27-44页 |
| 3.1 CUDA的概述 | 第27-32页 |
| 3.1.1 CUDA的线程组层次结构 | 第27-28页 |
| 3.1.2 CUDA的硬件架构分析 | 第28-30页 |
| 3.1.3 CUDA的存储器 | 第30-32页 |
| 3.2 基于单GPU的加速训练算法的研究 | 第32-38页 |
| 3.2.1 有监督学习过程的并行化分析 | 第32-33页 |
| 3.2.2 单GPU上小批量数据集并行算法的实现 | 第33-38页 |
| 3.3 基于多GPU的异步随机梯度下降算法的改进和设计 | 第38-43页 |
| 3.3.1 对异步随机梯度下降算法模型的改进 | 第38-40页 |
| 3.3.2 小批量数据集的分发机制设计 | 第40-41页 |
| 3.3.3 梯度的分发调度策略设计 | 第41-43页 |
| 3.4 本章小结 | 第43-44页 |
| 第4章 基于多GPU的网络加速训练实验分析 | 第44-55页 |
| 4.1 引言 | 第44页 |
| 4.2 系统实验硬件及软件平台 | 第44页 |
| 4.3 MNIST数据集及其存储处理 | 第44-46页 |
| 4.4 单GPU实验及其结果对比分析 | 第46-49页 |
| 4.4.1 单GPU与CPU实验结果比较 | 第46-47页 |
| 4.4.2 单GPU与CXXNET开源框架实验结果比较 | 第47-49页 |
| 4.5 多GPU环境实验及其结果对比分析 | 第49-54页 |
| 4.5.1 异步随机梯度下降算法改进前后实验结果分析 | 第49-51页 |
| 4.5.2 多GPU训练中分批大小的影响分析 | 第51-52页 |
| 4.5.3 不同数量GPU训练实验加速效果对比和分析 | 第52-54页 |
| 4.6 本章小结 | 第54-55页 |
| 结论 | 第55-56页 |
| 参考文献 | 第56-62页 |
| 致谢 | 第62页 |