摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第15-23页 |
1.1 引言 | 第15-16页 |
1.2 研究背景 | 第16-20页 |
1.2.1 神经网络 | 第16-18页 |
1.2.2 循环神经网络在自然语言处理领域的应用 | 第18页 |
1.2.3 GPU平台 | 第18-20页 |
1.3 本文研究问题及研究意义 | 第20页 |
1.3.1 针对不同应用模型进行优化的挑战 | 第20页 |
1.3.2 循环神经网络在GPU上优化加速的挑战 | 第20页 |
1.4 本文主要工作 | 第20-21页 |
1.5 本文组织结构 | 第21-23页 |
第2章 相关研究工作 | 第23-33页 |
2.1 循环神经网络 | 第23-26页 |
2.1.1 长短时记忆模型 | 第24-25页 |
2.1.2 门控循环模型 | 第25-26页 |
2.2 循环神经网络相关算法 | 第26-28页 |
2.2.1 参数更新算法 | 第26-28页 |
2.2.2 大规模循环神经网络模型训练算法 | 第28页 |
2.3 循环神经网络并行计算加速方法 | 第28-29页 |
2.4 深度学习开源框架 | 第29-31页 |
2.5 本章小结 | 第31-33页 |
第3章 基于循环神经网络的语音识别算法实现 | 第33-45页 |
3.1 语音识别 | 第33-35页 |
3.1.1 语音识别模型 | 第34页 |
3.1.2 评估算法 | 第34-35页 |
3.2 基于语音识别的数据组织算法实现 | 第35-38页 |
3.3 层规范化提升训练准确率 | 第38-40页 |
3.4 实验结果与分析 | 第40-43页 |
3.4.1 实验模型及数据 | 第40页 |
3.4.2 数据组织算法实验结果 | 第40-42页 |
3.4.3 层规范化实验结果 | 第42-43页 |
3.5 本章小结 | 第43-45页 |
第4章 基于循环神经网络的机器翻译并行翻译算法实现 | 第45-51页 |
4.1 机器翻译 | 第45-47页 |
4.1.1 神经机器翻译模型 | 第45-46页 |
4.1.2 评估算法 | 第46-47页 |
4.2 机器翻译模型多句并行翻译 | 第47-49页 |
4.3 实验结果与分析 | 第49-50页 |
4.3.1 实验模型及数据 | 第49页 |
4.3.2 实验结果 | 第49-50页 |
4.4 本章小结 | 第50-51页 |
第5章 循环神经网络在GPU平台上的算法优化 | 第51-71页 |
5.1 GPU在神经网络中的应用 | 第51-54页 |
5.1.1 GPU编程模型 | 第52-53页 |
5.1.2 不同架构GPU性能对比 | 第53-54页 |
5.2 基于GPU显存优化加速 | 第54-58页 |
5.2.1 算法实现 | 第54-56页 |
5.2.2 实验结果与分析 | 第56-58页 |
5.3 CUDA内核代码重构 | 第58-62页 |
5.3.1 算法实现 | 第58-62页 |
5.3.2 实验结果与分析 | 第62页 |
5.4 低比特量化方法模拟混合精度训练 | 第62-69页 |
5.4.1 低比特量化背景及意义 | 第62-63页 |
5.4.2 低比特量化方法 | 第63-65页 |
5.4.3 低比特量化实现 | 第65-67页 |
5.4.4 实验结果与分析 | 第67-69页 |
5.5 本章小结 | 第69-71页 |
第6章 总结与展望 | 第71-73页 |
6.1 工作总结 | 第71-72页 |
6.2 本文创新点 | 第72页 |
6.3 未来工作展望 | 第72-73页 |
参考文献 | 第73-77页 |
致谢 | 第77-79页 |
在读期间发表的学术论文与取得的研究成果 | 第79-81页 |
在读期间参与的科研项目 | 第81页 |