摘要 | 第4-5页 |
Abstract | 第5-6页 |
1 绪论 | 第10-18页 |
1.1 深度学习研究背景和意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.2.1 深度学习在图像识别领域的研究现状 | 第11-12页 |
1.2.2 深度学习在手写数字集识别领域的研究现状 | 第12-13页 |
1.2.3 深度学习在语音识别领域的研究现状 | 第13-14页 |
1.2.4 深度学习在其它领域的研究现状 | 第14页 |
1.3 深度学习的面临的问题及研究趋势 | 第14-15页 |
1.3.1 理论分析 | 第14-15页 |
1.3.2 深度网络的结构问题 | 第15页 |
1.3.3 如何加速深度网络的训练过程 | 第15页 |
1.4 本文的研究内容与结构 | 第15-18页 |
1.4.1 论文的主要研究内容 | 第15-16页 |
1.4.2 论文的结构安排 | 第16-18页 |
2 深度学习常用模型和方法 | 第18-28页 |
2.1 深度自动编码器 | 第18-21页 |
2.1.1 概述 | 第18-19页 |
2.1.2 稀疏自编码器 | 第19-20页 |
2.1.3 降噪自动编码器 | 第20-21页 |
2.2 卷积神经网络(Convolutional Neural Networks) | 第21-23页 |
2.2.1 概述 | 第21页 |
2.2.2 卷积神经网络的网络结构 | 第21-22页 |
2.2.3 卷积神经网络的训练过程 | 第22-23页 |
2.3 受限波尔兹曼机 | 第23-27页 |
2.3.1 受限波尔兹曼机的基本模型 | 第23-24页 |
2.3.2 RBM中的Gibbs采样 | 第24-25页 |
2.3.3 对比散度 | 第25-27页 |
2.4 本章小结 | 第27-28页 |
3 数据预处理及优化方法研究 | 第28-45页 |
3.1 数据预处理 | 第28-31页 |
3.1.1 数据归一化 | 第28-29页 |
3.1.2 白化 | 第29-31页 |
3.2 优化方法研究 | 第31-44页 |
3.2.1 梯度下降方法 | 第31-33页 |
3.2.2 优化随机梯度下降法的几种有效方法 | 第33-37页 |
3.2.3 二阶优化方法 | 第37-44页 |
3.3 本章小结 | 第44-45页 |
4 基于稀疏自编器模型手写数字特征提取算法 | 第45-54页 |
4.1 稀疏自编码(SAE)训练 | 第45-48页 |
4.2 逐层贪心训练方法 | 第48页 |
4.3 深度神经网络的构建 | 第48-50页 |
4.4 Dropout(随机隐退)防止过拟合 | 第50-52页 |
4.5 自适应学习速率更新 | 第52-53页 |
4.6 算法的主要流程 | 第53页 |
4.7 本章小结 | 第53-54页 |
5 实验和结果分析 | 第54-61页 |
5.1 仿真环境与数据来源 | 第54页 |
5.2 实验和结果分析 | 第54-60页 |
5.2.1 数据预处理 | 第54-55页 |
5.2.2 实验参数设置 | 第55页 |
5.2.3 实验结果与分析 | 第55-60页 |
5.3 本章小结 | 第60-61页 |
6 总结与展望 | 第61-63页 |
6.1 总结 | 第61页 |
6.2 展望 | 第61-63页 |
参考文献 | 第63-68页 |
致谢 | 第68-69页 |
攻读硕士学位期间科研成果和参加的主要科研项目 | 第69页 |