摘要 | 第9-10页 |
ABSTRACT | 第10页 |
第一章 前言 | 第11-19页 |
1.1 课题研究背景 | 第11-12页 |
1.2 课题研究现状 | 第12-16页 |
1.2.1 DSP技术研究及其应用现状 | 第12-14页 |
1.2.2 深度学习技术研究及其应用现状 | 第14-15页 |
1.2.3 面向深度学习领域的硬件加速技术研究现状 | 第15-16页 |
1.3 课题研究内容 | 第16-18页 |
1.3.1 低功耗多级并行DSP系统体系结构 | 第17页 |
1.3.2 面向深度信念网络的并行优化技术 | 第17页 |
1.3.3 面向卷积神经网络的并行优化技术 | 第17页 |
1.3.4 面向深度学习算法的编程框架技术 | 第17-18页 |
1.4 论文组织结构 | 第18-19页 |
第二章 低功耗多级并行DSP系统体系结构 | 第19-32页 |
2.1 系统概述 | 第19-21页 |
2.1.1 总体结构 | 第19页 |
2.1.2 并行机制 | 第19-21页 |
2.2 主要硬件资源 | 第21-26页 |
2.2.1 芯片和互连 | 第21-22页 |
2.2.2 存储和编址 | 第22-23页 |
2.2.3 EDMA3 | 第23-24页 |
2.2.4 HyperLink | 第24-26页 |
2.3 基础数学库 | 第26-28页 |
2.3.1 向量的点积 | 第26页 |
2.3.2 向量的加法 | 第26-27页 |
2.3.3 矩阵的转置 | 第27页 |
2.3.4 矩阵的乘法 | 第27页 |
2.3.5 快速傅里叶变换 | 第27-28页 |
2.4 支持存算并发的PingPong模型 | 第28-31页 |
2.4.1 读模型 | 第28-29页 |
2.4.2 写模型 | 第29-30页 |
2.4.3 读写模型 | 第30-31页 |
2.5 本章小结 | 第31-32页 |
第三章 面向深度信念网络的并行优化技术 | 第32-46页 |
3.1 DBN简介 | 第32-35页 |
3.2 单片DSP的并行优化 | 第35-40页 |
3.2.1 单片DSP并行计算h1 | 第35-37页 |
3.2.2 单片DSP并行计算c1 | 第37-38页 |
3.2.3 单片DSP并行计算v2 | 第38-39页 |
3.2.4 单片DSP并行更新网络权值 | 第39-40页 |
3.3 双片DSP的并行优化 | 第40-43页 |
3.3.1 双片DSP并行计算h1 | 第41页 |
3.3.2 双片DSP并行计算c1 | 第41-42页 |
3.3.3 双片DSP并行计算v2 | 第42-43页 |
3.3.4 双片DSP并行更新网络权值 | 第43页 |
3.4 实验设置与结果分析 | 第43-45页 |
3.5 本章小结 | 第45-46页 |
第四章 面向卷积神经网络的并行优化技术 | 第46-63页 |
4.1 CNN简介 | 第46-48页 |
4.2 卷积计算的优化方法 | 第48-54页 |
4.2.1 卷积转化为FFT | 第48-51页 |
4.2.2 卷积转化为矩阵乘 | 第51-53页 |
4.2.3 实验设置与结果分析 | 第53-54页 |
4.3 多核并行卷积计算的优化方法 | 第54-62页 |
4.3.1 粗粒度并行的卷积计算方法 | 第54-57页 |
4.3.2 细粒度并行的卷积计算方法 | 第57-59页 |
4.3.3 实验设置与结果分析 | 第59-62页 |
4.4 本章小结 | 第62-63页 |
第五章 面向深度学习算法的编程框架技术 | 第63-73页 |
5.1 Caffe简介 | 第63页 |
5.2 深度学习算法模块的硬件加速技术 | 第63-67页 |
5.2.1 FullC层 | 第64-65页 |
5.2.2 Pooling层 | 第65-66页 |
5.2.3 LRN层 | 第66-67页 |
5.2.4 softmax层 | 第67页 |
5.3 实验设置与结果分析 | 第67-72页 |
5.3.1 Cifar-10的实现 | 第68-69页 |
5.3.2 AlexNet的实现 | 第69-71页 |
5.3.3 VGG-s的实现 | 第71-72页 |
5.4 本章小结 | 第72-73页 |
第六章 总结与展望 | 第73-75页 |
6.1 工作总结 | 第73-74页 |
6.2 研究展望 | 第74-75页 |
致谢 | 第75-76页 |
参考文献 | 第76-82页 |
作者在学期间取得的学术成果 | 第82页 |