摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第11-17页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-14页 |
1.3 研究内容和技术路线 | 第14-15页 |
1.4 全文组织架构 | 第15-16页 |
1.5 本章小结 | 第16-17页 |
第2章 卷积神经网络 | 第17-33页 |
2.1 基本单元 | 第17-23页 |
2.1.1 卷积层 | 第17-18页 |
2.1.2 激活函数 | 第18-21页 |
2.1.3 全连接层 | 第21-22页 |
2.1.4 小结 | 第22-23页 |
2.2 经典模型 | 第23-30页 |
2.2.1 AlexNet | 第23-24页 |
2.2.2 GoogLeNet | 第24-27页 |
2.2.3 ResNet | 第27-29页 |
2.2.4 小结 | 第29-30页 |
2.3 网络特性 | 第30-31页 |
2.3.1 FLOPs以及Parameters的占比情况 | 第30-31页 |
2.3.2 卷积层和全连接层的权重分布 | 第31页 |
2.4 本章小结 | 第31-33页 |
第3章 传统的加速和压缩策略 | 第33-45页 |
3.1 低精度网络 | 第33-35页 |
3.1.1 八比特定点网络 | 第33-34页 |
3.1.2 Binary Connect | 第34-35页 |
3.2 模型剪枝 | 第35-40页 |
3.2.1 Deep Compression | 第35-38页 |
3.2.2 ThiNet | 第38-40页 |
3.3 轻量级网络 | 第40-44页 |
3.3.1 SqueezeNet | 第40-41页 |
3.3.2 MobileNet | 第41-42页 |
3.3.3 ShuffleNet | 第42-44页 |
3.4 本章小结 | 第44-45页 |
第4章 加速卷积神经网络的前向推理 | 第45-59页 |
4.1 卷积实现 | 第45-51页 |
4.1.1 简单卷积 | 第45-46页 |
4.1.2 FFT卷积 | 第46-50页 |
4.1.3 Caffe卷积 | 第50-51页 |
4.2 改进方案 | 第51-54页 |
4.2.1 优化访存连续性 | 第51-53页 |
4.2.2 具体实现 | 第53-54页 |
4.3 实验结果 | 第54-57页 |
4.3.1 卷积操作的时间分布 | 第54-55页 |
4.3.2 输入尺寸和通道数的影响 | 第55页 |
4.3.3 卷积核尺寸的影响 | 第55-57页 |
4.4 本章小结 | 第57-59页 |
第5章 基于自动编码器压缩网络结构 | 第59-71页 |
5.1 自动编码器 | 第59-64页 |
5.1.1 单层自编码器 | 第59-60页 |
5.1.2 栈式自编码器 | 第60-61页 |
5.1.3 稀疏自编码器 | 第61-62页 |
5.1.4 去噪自编码器 | 第62-64页 |
5.2 删除冗余神经元与卷积核 | 第64-66页 |
5.2.1 理论依据 | 第64-65页 |
5.2.2 具体步骤 | 第65页 |
5.2.3 连接剪枝 | 第65-66页 |
5.3 实验结果 | 第66-69页 |
5.3.1 LeNet-300-100 | 第67页 |
5.3.2 LeNet-5 | 第67-68页 |
5.3.3 Cifar10-quick | 第68-69页 |
5.4 本章小结 | 第69-71页 |
第6章 总结与展望 | 第71-73页 |
6.1 论文工作总结 | 第71-72页 |
6.2 论文工作展望 | 第72-73页 |
参考文献 | 第73-79页 |
致谢 | 第79-80页 |
在读期间发表的学术论文与取得的研究成果 | 第80页 |