致谢 | 第3-4页 |
摘要 | 第4-6页 |
abstract | 第6-7页 |
1 绪论 | 第16-23页 |
1.1 课题来源 | 第16页 |
1.2 研究背景和意义 | 第16页 |
1.3 自动编码器研究现状 | 第16-20页 |
1.4 研究目的和主要研究内容 | 第20-21页 |
1.5 论文组织结构 | 第21-23页 |
2 神经网络和传统自动编码器 | 第23-35页 |
2.1 神经网络模型 | 第23-26页 |
2.2 传统自动编码器 | 第26-27页 |
2.3 过完备模型和压缩模型 | 第27-28页 |
2.4 权值优化算法:反向传播算法 | 第28-31页 |
2.5 利用卷积操作提取特征 | 第31-34页 |
2.6 本章小结 | 第34-35页 |
3 降噪稀疏自动编码器 | 第35-49页 |
3.1 稀疏自动编码器 | 第35页 |
3.2 降噪自动编码器 | 第35-37页 |
3.3 降噪稀疏自动编码器 | 第37-38页 |
3.4 实验结果与分析 | 第38-48页 |
3.5 本章小结 | 第48-49页 |
4 堆叠降噪稀疏自动编码器 | 第49-72页 |
4.1 深度网络 | 第49-51页 |
4.2 无监督贪婪逐层预训练 | 第51-55页 |
4.3 有监督细化训练 | 第55页 |
4.4 堆叠降噪稀疏自动编码器训练 | 第55-58页 |
4.5 实验结果与分析 | 第58-71页 |
4.6 本章小结 | 第71-72页 |
5 关于改进方向的两点想法 | 第72-79页 |
5.1 利用构造性神经网络来建立自动编码器模型:构造自动编码器 | 第72-75页 |
5.2 更符合神经学基础的自动编码器:拓扑自动编码器 | 第75-78页 |
5.3 本章小结 | 第78-79页 |
6 讨论和深入思考 | 第79-85页 |
6.1 优秀的自动编码器应该具备什么样的特征 | 第79-80页 |
6.2 全连接和局部连接之间的权衡 | 第80-81页 |
6.3 如何评价学习到的特征 | 第81-82页 |
6.4 不同模型间的等价性问题 | 第82-83页 |
6.5 自动编码器与神经科学和认知科学的联系 | 第83-84页 |
6.6 本章小结 | 第84-85页 |
7 总结和展望 | 第85-88页 |
7.1 总结 | 第85-86页 |
7.2 展望 | 第86-88页 |
参考文献 | 第88-97页 |
作者简历 | 第97-100页 |
学位论文数据集 | 第100页 |