摘要 | 第9-10页 |
ABSTRACT | 第10-11页 |
第一章 绪论 | 第12-23页 |
1.1 课题研究背景及研究意义 | 第12-14页 |
1.2 国内外研究现状 | 第14-20页 |
1.2.1 传统基于人工设计特征的场景分类 | 第15-16页 |
1.2.2 基于深度学习的场景分类 | 第16-18页 |
1.2.3 视觉注意机制 | 第18-19页 |
1.2.4 场景分类面临的挑战 | 第19-20页 |
1.3 论文的主要工作及创新点 | 第20-23页 |
1.3.1 主要工作 | 第20-21页 |
1.3.2 创新点 | 第21页 |
1.3.3 论文的组织结构 | 第21-23页 |
第二章 背景与相关研究工作 | 第23-40页 |
2.1 神经网络理论及浅层学习的局限性 | 第23-25页 |
2.2 深度学习理论及优势 | 第25-27页 |
2.3 卷积神经网络 | 第27-34页 |
2.3.1 网络结构 | 第27-33页 |
2.3.2 前向传播和反向传播算法 | 第33-34页 |
2.3.3 常用的优化方法和技巧 | 第34页 |
2.3.4 卷积神经网络的优势 | 第34页 |
2.4 视觉注意机制 | 第34-37页 |
2.4.1 视觉注意模型 | 第35页 |
2.4.2 空间变换模型 | 第35-37页 |
2.4.3 视觉注意机制的优势和应用 | 第37页 |
2.5 场景分类数据集 | 第37-39页 |
2.5.1 传统的数据集 | 第37-38页 |
2.5.2 大规模深度学习数据集 | 第38-39页 |
2.6 本章小结 | 第39-40页 |
第三章 基于局部视觉注意深度模型的场景分类方法 | 第40-57页 |
3.1 引言 | 第40页 |
3.2 基于局部视觉注意深度模型的场景分类网络 | 第40-47页 |
3.2.1 构建局部视觉注意模块 | 第41-42页 |
3.2.2 构建定位子网络 | 第42-45页 |
3.2.3 构建特征取与分类子网络 | 第45-46页 |
3.2.4 特征融合 | 第46-47页 |
3.3 实验设置 | 第47-51页 |
3.3.1 实验数据集 | 第47-48页 |
3.3.2 图像预处理 | 第48-50页 |
3.3.3 实验方法 | 第50-51页 |
3.3.4 模型训练 | 第51页 |
3.4 实验结果与分析 | 第51-56页 |
3.5 本章小结 | 第56-57页 |
第四章 全局深度模型与局部视觉注意深度模型融合的场景分类方法 | 第57-64页 |
4.1 引言 | 第57页 |
4.2 全局深度模型与局部视觉注意深度模型融合的场景分类网络 | 第57-59页 |
4.2.1 构建全局特征取子网络 | 第57-59页 |
4.2.2 全局特征与局部特征融合 | 第59页 |
4.3 实验设置与模型训练 | 第59-60页 |
4.3.1 实验数据与参数初始化 | 第59-60页 |
4.3.2 实验方法与模型训练 | 第60页 |
4.4 实验结果与分析 | 第60-63页 |
4.5 本章小结 | 第63-64页 |
第五章 总结与展望 | 第64-66页 |
5.1 本文总结 | 第64-65页 |
5.2 工作展望 | 第65-66页 |
致谢 | 第66-67页 |
参考文献 | 第67-73页 |
作者在学期间取得的学术成果 | 第73页 |