| 摘要 | 第5-6页 |
| ABSTRACT | 第6页 |
| 第1章 绪论 | 第9-16页 |
| 1.1 课题背景及研究目的和意义 | 第9-11页 |
| 1.1.1 课题背景 | 第9-10页 |
| 1.1.2 研究目的和意义 | 第10-11页 |
| 1.2 研究现状和文献综述 | 第11-14页 |
| 1.3 本文的研究内容及其结构 | 第14-16页 |
| 第2章 基于卷积神经网络的图像匹配 | 第16-32页 |
| 2.1 传统的图像匹配方法分析 | 第16-17页 |
| 2.2 环境因素的干扰 | 第17-18页 |
| 2.3 基于卷积神经网络的图像匹配 | 第18-23页 |
| 2.3.1 以场景为中心的卷积神经网络 | 第18-21页 |
| 2.3.2 特征提取 | 第21页 |
| 2.3.3 图像表示 | 第21-22页 |
| 2.3.4 相似性度量 | 第22-23页 |
| 2.4 实验与分析 | 第23-31页 |
| 2.4.1 测试数据集 | 第25页 |
| 2.4.2 高维特征向量 | 第25-26页 |
| 2.4.3 相似性度量 | 第26-27页 |
| 2.4.4 匹配准确度 | 第27-30页 |
| 2.4.5 实时性 | 第30-31页 |
| 2.5 本章小结 | 第31-32页 |
| 第3章 基于卷积神经网络和视觉词袋的混合图像表示 | 第32-45页 |
| 3.1 图像感兴趣区域与图像分割 | 第32-33页 |
| 3.2 基于卷积神经网络的图像分割 | 第33-37页 |
| 3.2.1 面向分类的卷积神经网络 | 第33页 |
| 3.2.2 面向目标检测的卷积神经网络 | 第33-35页 |
| 3.2.3 训练数据库 | 第35-36页 |
| 3.2.4 模型训练 | 第36-37页 |
| 3.3 混合图像表示 | 第37-38页 |
| 3.3.1 面向场景的图像感兴趣区域提取 | 第37-38页 |
| 3.3.2 图像表示 | 第38页 |
| 3.4 实验与分析 | 第38-44页 |
| 3.4.1 面向分类的CNN模型 | 第38页 |
| 3.4.2 面向图像分割的CNN模型 | 第38-39页 |
| 3.4.3 多目标检测与分类 | 第39-40页 |
| 3.4.4 检测准确度 | 第40-41页 |
| 3.4.5 图像特征提取 | 第41页 |
| 3.4.6 图像匹配 | 第41-43页 |
| 3.4.7 实时性 | 第43-44页 |
| 3.5 本章小结 | 第44-45页 |
| 第4章 基于卷积神经网络和视觉词袋的混合环路闭合探测方法 | 第45-52页 |
| 4.1 基本流程 | 第45-46页 |
| 4.2 混合环路闭合探测实验系统 | 第46-49页 |
| 4.2.1 系统架构 | 第46-47页 |
| 4.2.2 系统实现 | 第47-49页 |
| 4.3 系统效果展示 | 第49-51页 |
| 4.4 本章小结 | 第51-52页 |
| 第5章 结论与展望 | 第52-54页 |
| 参考文献 | 第54-59页 |
| 攻读硕士学位期间发表的论文及其它成果 | 第59-60页 |
| 致谢 | 第60页 |