| 致谢 | 第3-4页 |
| 摘要 | 第4-6页 |
| abstract | 第6-7页 |
| 1 绪论 | 第16-23页 |
| 1.1 课题来源 | 第16页 |
| 1.2 研究背景和意义 | 第16页 |
| 1.3 自动编码器研究现状 | 第16-20页 |
| 1.4 研究目的和主要研究内容 | 第20-21页 |
| 1.5 论文组织结构 | 第21-23页 |
| 2 神经网络和传统自动编码器 | 第23-35页 |
| 2.1 神经网络模型 | 第23-26页 |
| 2.2 传统自动编码器 | 第26-27页 |
| 2.3 过完备模型和压缩模型 | 第27-28页 |
| 2.4 权值优化算法:反向传播算法 | 第28-31页 |
| 2.5 利用卷积操作提取特征 | 第31-34页 |
| 2.6 本章小结 | 第34-35页 |
| 3 降噪稀疏自动编码器 | 第35-49页 |
| 3.1 稀疏自动编码器 | 第35页 |
| 3.2 降噪自动编码器 | 第35-37页 |
| 3.3 降噪稀疏自动编码器 | 第37-38页 |
| 3.4 实验结果与分析 | 第38-48页 |
| 3.5 本章小结 | 第48-49页 |
| 4 堆叠降噪稀疏自动编码器 | 第49-72页 |
| 4.1 深度网络 | 第49-51页 |
| 4.2 无监督贪婪逐层预训练 | 第51-55页 |
| 4.3 有监督细化训练 | 第55页 |
| 4.4 堆叠降噪稀疏自动编码器训练 | 第55-58页 |
| 4.5 实验结果与分析 | 第58-71页 |
| 4.6 本章小结 | 第71-72页 |
| 5 关于改进方向的两点想法 | 第72-79页 |
| 5.1 利用构造性神经网络来建立自动编码器模型:构造自动编码器 | 第72-75页 |
| 5.2 更符合神经学基础的自动编码器:拓扑自动编码器 | 第75-78页 |
| 5.3 本章小结 | 第78-79页 |
| 6 讨论和深入思考 | 第79-85页 |
| 6.1 优秀的自动编码器应该具备什么样的特征 | 第79-80页 |
| 6.2 全连接和局部连接之间的权衡 | 第80-81页 |
| 6.3 如何评价学习到的特征 | 第81-82页 |
| 6.4 不同模型间的等价性问题 | 第82-83页 |
| 6.5 自动编码器与神经科学和认知科学的联系 | 第83-84页 |
| 6.6 本章小结 | 第84-85页 |
| 7 总结和展望 | 第85-88页 |
| 7.1 总结 | 第85-86页 |
| 7.2 展望 | 第86-88页 |
| 参考文献 | 第88-97页 |
| 作者简历 | 第97-100页 |
| 学位论文数据集 | 第100页 |