摘要 | 第5-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第15-25页 |
1.1 深度神经网络概述 | 第15-18页 |
1.2 深度神经网络剪枝的重要性 | 第18-20页 |
1.3 深度神经网络剪枝中的一些问题 | 第20-21页 |
1.4 本文的主要工作 | 第21-23页 |
1.5 本文的组织结构 | 第23-24页 |
1.6 本章小结 | 第24-25页 |
第2章 基础知识与相关工作综述 | 第25-41页 |
2.1 机器学习相关知识概述 | 第25-28页 |
2.1.1 有监督学习 | 第25-26页 |
2.1.2 梯度下降算法 | 第26-28页 |
2.2 深度神经网络相关知识概述 | 第28-34页 |
2.2.1 全连接深度网络 | 第28-32页 |
2.2.2 反向传播算法 | 第32-33页 |
2.2.3 卷积神经网络 | 第33-34页 |
2.3 相关工作综述 | 第34-40页 |
2.3.1 权值张量分解(Wight Decomposition) | 第35页 |
2.3.2 权值量化(Weight Quantization) | 第35-36页 |
2.3.3 知识蒸馏(Knowledge Distillation) | 第36页 |
2.3.4 剪枝(Pruning) | 第36-40页 |
2.4 本章小结 | 第40-41页 |
第3章 一种基于可变阈值的从头剪枝方法 | 第41-55页 |
3.1 引言 | 第41-44页 |
3.2 基于动态的和自适应阈值的从头剪枝方法 | 第44-46页 |
3.2.1 动态网络手术DNS | 第44-45页 |
3.2.2 动态的和自适应的阈值变化策略 | 第45-46页 |
3.3 实验结果与结论 | 第46-53页 |
3.3.1 实验设置 | 第47-48页 |
3.3.2 实验结果与分析 | 第48-53页 |
3.4 本章小结 | 第53-55页 |
第4章 一种基于优化非线性重构误差的神经元剪枝方法 | 第55-75页 |
4.1 引言 | 第55-57页 |
4.2 基于优化非线性重构误差的逐层神经元剪枝方法 | 第57-63页 |
4.2.1 算法框架 | 第57-58页 |
4.2.2 优化目标的形式化 | 第58-59页 |
4.2.3 优化过程 | 第59-62页 |
4.2.4 超参数的选择 | 第62-63页 |
4.3 实验结果与结论 | 第63-73页 |
4.3.1 实验设置 | 第63-65页 |
4.3.2 实验结果与分析 | 第65-73页 |
4.4 本章小结 | 第73-75页 |
第5章 一种基于注意力机制的CNN通道剪枝方法 | 第75-93页 |
5.1 引言 | 第75-79页 |
5.2 基于注意力机制的CNN通道剪枝方法 | 第79-84页 |
5.2.1 形式化 | 第79-80页 |
5.2.2 注意力损失函数 | 第80-82页 |
5.2.3 稀疏正则化 | 第82-84页 |
5.3 实验结果与分析 | 第84-90页 |
5.3.1 实验设置 | 第84-85页 |
5.3.2 总体对比结果 | 第85-88页 |
5.3.3 ACP方法有效性的分析 | 第88-90页 |
5.4 本章小结 | 第90-93页 |
第6章 总结与展望 | 第93-97页 |
6.1 工作总结 | 第93-94页 |
6.2 未来展望 | 第94-97页 |
参考文献 | 第97-105页 |
致谢 | 第105-107页 |
在读期间发表的学术论文与取得的研究成果 | 第107页 |