摘要 | 第5-6页 |
Abstract | 第6页 |
第一章 绪论 | 第9-21页 |
1.1 研究背景 | 第9-13页 |
1.1.1 深度神经网络的基本概念 | 第9-12页 |
1.1.2 深度神经网络的应用 | 第12-13页 |
1.2 国内外研究现状 | 第13-15页 |
1.2.1 神经网络加速器的研究现状 | 第13-14页 |
1.2.2 基于压缩算法的神经网络加速器研究现状 | 第14-15页 |
1.3 本论文的主要工作及创新点 | 第15-18页 |
1.3.1 本论文主要工作 | 第15-17页 |
1.3.2 本论文的创新点 | 第17页 |
1.3.3 本论文的设计指标 | 第17-18页 |
1.4 本论文组织结构 | 第18-21页 |
第二章 深度神经网络近似算法分析与设计 | 第21-37页 |
2.1 神经网络模型搭建与验证平台介绍 | 第21-23页 |
2.1.1 Caffe平台简介 | 第21-22页 |
2.1.2 TensorFlow平台简介 | 第22-23页 |
2.2 神经网络压缩与近似方法分析与设计 | 第23-29页 |
2.2.1 神经网络剪枝算法分析与实现 | 第23-25页 |
2.2.2 混合精度近似算法设计 | 第25-26页 |
2.2.3 首“1”位置参数的霍夫曼编码 | 第26-28页 |
2.2.4 压缩效率评估 | 第28-29页 |
2.3 近似乘法算法分析与实现 | 第29-35页 |
2.3.1 截断乘法算法 | 第29-31页 |
2.3.2 共享乘法算法 | 第31-32页 |
2.3.3 对数乘法算法 | 第32-34页 |
2.3.4 三种近似乘法器对比分析 | 第34-35页 |
2.4 本章小结 | 第35-37页 |
第三章 DNN加速器的存储解析系统与计算单元设计 | 第37-49页 |
3.1 基于混合精度近似计算的DNN加速器系统结构 | 第37-39页 |
3.2 基于混合精度的数据存储与解码系统设计 | 第39-43页 |
3.2.1 基于混合精度的数据存储解析系统 | 第39-40页 |
3.2.2 首“1”位置参数霍夫曼解码系统 | 第40-43页 |
3.3 基于近似计算的乘法器设计 | 第43-46页 |
3.3.1 传统对数乘法器结构 | 第43-45页 |
3.3.2 迭代对数乘法器的结构优化 | 第45-46页 |
3.4 本章小结 | 第46-49页 |
第四章 DNN加速器优化与调度方案设计 | 第49-57页 |
4.1 DNN在加速器上的映射方案 | 第49-52页 |
4.2 加速器不同模块之间的组织结构 | 第52-55页 |
4.2.1 DNN加速器的数据通路设计 | 第52-53页 |
4.2.2 输入数据存储解析方案设计 | 第53-55页 |
4.3 DNN加速器的系统调度方案 | 第55-56页 |
4.4 本章小结 | 第56-57页 |
第五章 实验结果与分析 | 第57-63页 |
5.1 基于混合精度近似计算的DNN加速器功能验证 | 第57-60页 |
5.1.1 验证环境 | 第57页 |
5.1.2 验证结果及分析 | 第57-60页 |
5.2 基于混合精度近似计算的DNN加速器性能功耗评估 | 第60-61页 |
5.3 与典型神经网络加速器比较分析 | 第61-62页 |
5.4 本章小结 | 第62-63页 |
第六章 总结与展望 | 第63-65页 |
6.1 总结 | 第63-64页 |
6.2 展望 | 第64-65页 |
致谢 | 第65-67页 |
参考文献 | 第67-73页 |
作者简介 | 第73页 |