摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-25页 |
1.1 神经网络技术的应用 | 第11-16页 |
1.1.1 神经网络技术发展历程 | 第11-13页 |
1.1.2 神经网络的应用和发展 | 第13-16页 |
1.2 神经网络计算平台发展 | 第16-20页 |
1.2.1 通用处理器CPU和GPU | 第16-17页 |
1.2.2 FPGA | 第17-19页 |
1.2.3 ASIC | 第19-20页 |
1.3 神经网络技术面临的挑战和目前的解决方法 | 第20-22页 |
1.3.1 面临的挑战 | 第20页 |
1.3.2 目前的解决方法 | 第20-21页 |
1.3.3 稀疏神经网络的不规则性 | 第21-22页 |
1.4 主要研究内容及贡献 | 第22-23页 |
1.5 论文的组织结构 | 第23-25页 |
第2章 神经网络技术简介 | 第25-43页 |
2.1 神经网络模型基础 | 第25-32页 |
2.1.1 全连接层 | 第25-26页 |
2.1.2 卷积层 | 第26-27页 |
2.1.3 池化层 | 第27-28页 |
2.1.4 归一化层 | 第28-29页 |
2.1.5 激活层 | 第29-30页 |
2.1.6 LSTM | 第30-31页 |
2.1.7 GRU | 第31-32页 |
2.2 神经网络模型的低能耗优化技术 | 第32-36页 |
2.2.1 神经网络的低精度计算 | 第33-34页 |
2.2.2 神经网络裁剪技术 | 第34-35页 |
2.2.3 权值矩阵变换 | 第35-36页 |
2.3 神经网络加速器 | 第36-42页 |
2.3.1 现有神经网络加速器架构 | 第36-38页 |
2.3.2 基于向量算子的神经网络处理器 | 第38-40页 |
2.3.3 基于乘加算子空间数据流的神经网络处理器 | 第40页 |
2.3.4 稀疏神经网络处理器 | 第40-42页 |
2.4 本章小结 | 第42-43页 |
第3章 一种新的神经网络压缩方法 | 第43-59页 |
3.1 背景和动机 | 第43-47页 |
3.1.1 稀疏神经网络 | 第43-44页 |
3.1.2 权值编码 | 第44-47页 |
3.1.3 不规则性 | 第47页 |
3.2 局部收敛 | 第47-48页 |
3.3 压缩神经网络 | 第48-55页 |
3.3.1 粗粒度剪枝 | 第48-54页 |
3.3.2 局部量化 | 第54-55页 |
3.3.3 熵编码 | 第55页 |
3.4 压缩实验结果 | 第55-58页 |
3.4.1 压缩比 | 第55-56页 |
3.4.2 精度 | 第56-57页 |
3.4.3 不规则度 | 第57页 |
3.4.4 AlexNet网络详细压缩特性 | 第57-58页 |
3.5 本章小结 | 第58-59页 |
第4章 粗粒度稀疏神经网络加速器 | 第59-76页 |
4.1 Cambricon-S的整体架构 | 第59-60页 |
4.2 设计原则 | 第60-62页 |
4.3 Cambricon-S的设计细节 | 第62-70页 |
4.3.1 稀疏处理 | 第62-66页 |
4.3.2 存储模块 | 第66-68页 |
4.3.3 控制 | 第68-69页 |
4.3.4 片上互联 | 第69-70页 |
4.4 编程模型 | 第70-74页 |
4.4.1 基于库的编程模型 | 第70-71页 |
4.4.2 编译器 | 第71-73页 |
4.4.3 循环分块 | 第73-74页 |
4.5 本章小结 | 第74-76页 |
第5章 针对新型加速器的性能模拟器 | 第76-85页 |
5.1 背景 | 第76-77页 |
5.2 优化的模拟器 | 第77-84页 |
5.2.1 加速器的高层次抽象 | 第78-79页 |
5.2.2 事件分类 | 第79-80页 |
5.2.3 事件执行时间 | 第80-82页 |
5.2.4 事件的依赖关系 | 第82页 |
5.2.5 Simulator-O执行过程 | 第82-84页 |
5.3 Simulator-O的性能和准确度 | 第84页 |
5.4 本章小结 | 第84-85页 |
第6章 实验方法和实验结果 | 第85-95页 |
6.1 实验方法 | 第85-86页 |
6.1.1 Baseline | 第85-86页 |
6.1.2 Benchmark | 第86页 |
6.2 实验结果 | 第86-90页 |
6.2.1 硬件属性 | 第86-87页 |
6.2.2 性能 | 第87-89页 |
6.2.3 能耗 | 第89-90页 |
6.3 讨论 | 第90-94页 |
6.3.1 熵编码和熵解码模块 | 第90-91页 |
6.3.2 稀疏度与性能 | 第91-92页 |
6.3.3 减少的不规则度 | 第92页 |
6.3.4 类似粗粒度稀疏的方法 | 第92-93页 |
6.3.5 其他稀疏神经网络加速器 | 第93-94页 |
6.4 本章小结 | 第94-95页 |
第7章 总结和展望 | 第95-98页 |
7.1 本文工作总结 | 第95-96页 |
7.2 未来研究展望 | 第96-98页 |
参考文献 | 第98-110页 |
致谢 | 第110-111页 |
在读期间发表的学术论文与取得的研究成果 | 第111页 |