摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 绪论 | 第12-17页 |
1.1 研究背景 | 第12-13页 |
1.2 研究任务及研究难点 | 第13-14页 |
1.2.1 学术意义 | 第14页 |
1.2.2 应用价值 | 第14页 |
1.3 本文结构 | 第14-17页 |
第二章 相关研究工作现状 | 第17-30页 |
2.1 深度学习的发展 | 第17-22页 |
2.1.1 深度卷积神经网络的发展 | 第18-20页 |
2.1.2 深度递归神经网络的发展 | 第20-22页 |
2.2 模型参数压缩研究现状 | 第22-24页 |
2.2.1 低比特量化 | 第22页 |
2.2.2 哈希与聚类 | 第22-23页 |
2.2.3 奇异值分解 | 第23页 |
2.2.4 网络剪枝 | 第23-24页 |
2.3 网络前向加速研究现状 | 第24-28页 |
2.3.1 转换卷积计算 | 第24-25页 |
2.3.2 稀疏卷积计算 | 第25-26页 |
2.3.3 低秩分解 | 第26页 |
2.3.4 多枝网络 | 第26-27页 |
2.3.5 知识蒸馏 | 第27-28页 |
2.3.6 通道剪枝 | 第28页 |
2.4 本章小结 | 第28-30页 |
第三章 深度卷积神经网络的压缩和加速 | 第30-58页 |
3.1 引言 | 第30页 |
3.2 深度卷积神经网络的参数压缩和前向加速整体思路 | 第30-31页 |
3.3 深度卷积神经网络的加速 | 第31-35页 |
3.3.1 卷积层的前向计算 | 第31-32页 |
3.3.2 低秩分解 | 第32-34页 |
3.3.3 全局监督低秩分解 | 第34-35页 |
3.4 深度卷积神经网络的参数压缩 | 第35-40页 |
3.4.1 自适应剪枝算法 | 第36-38页 |
3.4.2 网络剪枝后的聚类与稀疏存储 | 第38-39页 |
3.4.3 连接冗余度分析 | 第39-40页 |
3.5 脱机手写汉字实验结果及分析 | 第40-51页 |
3.5.1 数据集 | 第40页 |
3.5.2 数据预处理和网络结构 | 第40-42页 |
3.5.3 实现细节 | 第42页 |
3.5.4 全局监督低秩分解的对比实验 | 第42-43页 |
3.5.5 自适应剪枝的对比实验 | 第43-46页 |
3.5.6 连接冗余度分析的对比实验 | 第46-47页 |
3.5.7 整体实验结果对比 | 第47-49页 |
3.5.8 错误样本分析 | 第49-51页 |
3.6 联机手写汉字实验结果及分析 | 第51-56页 |
3.6.1 数据集和数据预处理 | 第51-53页 |
3.6.2 网络结构 | 第53-55页 |
3.6.3 实现细节 | 第55页 |
3.6.4 结果与分析 | 第55-56页 |
3.7 本章小结 | 第56-58页 |
第四章 深度递归神经网络的压缩和加速 | 第58-67页 |
4.1 引言 | 第58页 |
4.2 深度递归神经网络的参数压缩和前向加速整体思路 | 第58-61页 |
4.2.1 深度递归神经网络的加速 | 第59-61页 |
4.2.2 深度递归神经网络的参数压缩 | 第61页 |
4.3 实验结果及分析 | 第61-66页 |
4.3.1 数据集和数据预处理 | 第61-63页 |
4.3.2 网络结构 | 第63页 |
4.3.3 实现细节 | 第63-64页 |
4.3.4 结果与分析 | 第64-66页 |
4.4 本章小结 | 第66-67页 |
第五章 深度神经网络前向计算的工程实现技术 | 第67-74页 |
5.1 引言 | 第67页 |
5.2 深度神经网络的前向图优化 | 第67-70页 |
5.2.1 激活函数 | 第68页 |
5.2.2 批归一化 | 第68-70页 |
5.3 深度卷积神经网络的前向计算 | 第70-71页 |
5.3.1 实验相关设置 | 第70页 |
5.3.2 实验结果对比 | 第70-71页 |
5.4 递归神经网络的前向计算 | 第71-73页 |
5.4.1 实验的相关设置 | 第71-72页 |
5.4.2 实验结果对比 | 第72-73页 |
5.5 本章小结 | 第73-74页 |
总结展望 | 第74-76页 |
参考文献 | 第76-84页 |
攻读硕士学位期间取得的研究成果 | 第84-86页 |
致谢 | 第86-87页 |
附件 | 第87页 |