深度神经网络的压缩实现方法研究
摘要 | 第3-4页 |
Abstract | 第4-5页 |
1 绪论 | 第8-12页 |
1.1 研究背景及意义 | 第8-9页 |
1.2 研究历史及现状 | 第9-11页 |
1.3 本文主要工作和研究内容 | 第11-12页 |
2 深度神经网络相关理论基础 | 第12-34页 |
2.1 引言 | 第12页 |
2.2 人工神经网络 | 第12-18页 |
2.2.1 人工神经元结构模型 | 第12-13页 |
2.2.2 人工神经网络分类 | 第13-16页 |
2.2.3 BP神经网络 | 第16-18页 |
2.3 深度学习基本理论 | 第18-20页 |
2.3.1 深度学习的发展与现状 | 第18-19页 |
2.3.2 深度学习的基本思想和算法 | 第19-20页 |
2.4 深度学习模型 | 第20-33页 |
2.4.1 以自动编码器为核心的深度网络 | 第20-23页 |
2.4.2 以限制玻尔兹曼机为核心的深度网络 | 第23-26页 |
2.4.3 卷积神经网络 | 第26-31页 |
2.4.4 循环神经网络 | 第31-33页 |
2.5 本章小结 | 第33-34页 |
3 深度神经网络的压缩算法研究 | 第34-40页 |
3.1 引言 | 第34页 |
3.2 深度神经网络的压缩算法 | 第34页 |
3.3 网络修剪策略 | 第34-36页 |
3.3.1 一般网络参数分析 | 第34-35页 |
3.3.2 网络修剪过程 | 第35-36页 |
3.4 基于K-Means++算法的权值共享 | 第36-38页 |
3.4.1 K-Means算法及其缺点 | 第36-37页 |
3.4.2 K-Means++算法及权值共享 | 第37-38页 |
3.5 权值量化 | 第38-39页 |
3.6 本章小结 | 第39-40页 |
4 深度神经网络压缩的实验结果分析 | 第40-58页 |
4.1 实验环境介绍 | 第40页 |
4.2 深度网络实验对比分析 | 第40-50页 |
4.2.1 网络修剪参数分析 | 第40-45页 |
4.2.2 迭代次数分析 | 第45-47页 |
4.2.3 不同聚类方法对网络的影响 | 第47-48页 |
4.2.4 不同优化方法分析 | 第48-50页 |
4.3 各个网络实验结果分析 | 第50-56页 |
4.3.1 LeNet网络实验结果分析 | 第50-54页 |
4.3.2 AlexNet网络实验结果分析 | 第54-55页 |
4.3.3 VGG-16网络实验结果分析 | 第55-56页 |
4.4 深度网络压缩实验总结 | 第56-57页 |
4.5 本章小结 | 第57-58页 |
5 总结和展望 | 第58-60页 |
5.1 工作总结 | 第58页 |
5.2 研究展望 | 第58-60页 |
致谢 | 第60-62页 |
参考文献 | 第62-67页 |