摘要 | 第5-7页 |
Abstract | 第7-8页 |
第一章 引言 | 第13-23页 |
1.1 背景介绍 | 第13-17页 |
1.2 相关工作 | 第17-20页 |
1.3 本文工作 | 第20-21页 |
1.4 本文结构 | 第21-23页 |
第二章 神经网络相关技术 | 第23-33页 |
2.1 神经网络模型基本结构 | 第23-25页 |
2.2 交叉熵与损失函数 | 第25-27页 |
2.3 梯度下降法与反向传播算法 | 第27-30页 |
2.4 神经网络的评估 | 第30-31页 |
2.5 谷歌Tensorflow简介 | 第31页 |
2.6 本章小结 | 第31-33页 |
第三章 本文方法 | 第33-50页 |
3.1 方法概述 | 第33-34页 |
3.2 数据集的收集 | 第34-36页 |
3.3 基础神经网络训练 | 第36-44页 |
3.3.1 基础神经网络的选择 | 第36-38页 |
3.3.2 梯度下降法与学习率的选择 | 第38-40页 |
3.3.3 基础神经网络的优化 | 第40-44页 |
3.4 基础神经网络评估 | 第44-45页 |
3.5 数据集的特征与网络规模的量化 | 第45-48页 |
3.5.1 网络规模 | 第45-46页 |
3.5.2 数据集特征 | 第46-48页 |
3.6 元神经网络的训练与评估 | 第48-49页 |
3.7 本章小结 | 第49-50页 |
第四章 实验 | 第50-67页 |
4.1 实验概述 | 第50页 |
4.2 实验环境 | 第50-51页 |
4.3 实验设计 | 第51-52页 |
4.4 实验结果 | 第52-65页 |
4.4.1 MNIST数据集与FashionMNIST数据集 | 第52-58页 |
4.4.2 CIFAR数据集 | 第58-61页 |
4.4.3 IMFDB数据集 | 第61-62页 |
4.4.4 Sentiment140数据集 | 第62-63页 |
4.4.5 元神经网络架构与训练 | 第63-64页 |
4.4.6 与灵敏度剪枝法的对比 | 第64-65页 |
4.5 结论 | 第65-66页 |
4.6 本章小结 | 第66-67页 |
第五章 总结和展望 | 第67-69页 |
5.1 总结 | 第67页 |
5.2 工作展望 | 第67-69页 |
参考文献 | 第69-74页 |
致谢 | 第74-75页 |
附录 | 第75-77页 |