摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 选题背景及意义 | 第10-11页 |
1.2 同步定位与地图构建研究概述 | 第11-12页 |
1.3 RGB-D传感器简介 | 第12-14页 |
1.4 本文的主要研究内容 | 第14-15页 |
1.5 本章小结 | 第15-16页 |
第2章 基于RGB-D数据的SLAM系统 | 第16-26页 |
2.1 基于RGB-D数据的SLAM框架 | 第16-19页 |
2.1.1 图创建前端 | 第16-17页 |
2.1.2 图优化后端 | 第17-19页 |
2.2 基于RGB-D数据的SLAM关键技术 | 第19-23页 |
2.2.1 特征提取与匹配 | 第19页 |
2.2.2 里程计运动变换估计 | 第19-20页 |
2.2.3 环形闭合检测 | 第20页 |
2.2.4 环境地图描述 | 第20-23页 |
2.3 基于RGB-D数据的SLAM平台搭建 | 第23-25页 |
2.4 本章小结 | 第25-26页 |
第3章 基于RGB-D数据的SLAM系统数学模型 | 第26-35页 |
3.1 RGB-D摄像机针孔模型 | 第26-29页 |
3.1.1 坐标系 | 第26-27页 |
3.1.2 针孔模型 | 第27-29页 |
3.2 基于RGB-D数据的SLAM概率描述 | 第29-34页 |
3.2.1 系统状态 | 第30页 |
3.2.2 机器人运动的概率表示 | 第30-31页 |
3.2.3 机器人观测的概率表示 | 第31页 |
3.2.4 环境地图的特征描述 | 第31页 |
3.2.5 SLAM问题的图论模型 | 第31-34页 |
3.3 本章小结 | 第34-35页 |
第4章 考虑地面约束的视觉里程计 | 第35-60页 |
4.1 视觉里程计 | 第35-41页 |
4.1.1 相关视觉里程计方法 | 第36-40页 |
4.1.2 里程计误差评价 | 第40-41页 |
4.2 考虑地面约束的视觉里程计方法 | 第41-50页 |
4.2.1 ORB特征提取与匹配 | 第41-45页 |
4.2.2 地面检测与约束添加 | 第45-49页 |
4.2.3 考虑地面约束的视觉里程计实现 | 第49-50页 |
4.3 实验结果与分析 | 第50-59页 |
4.3.1 实验环境与测试数据集 | 第50-51页 |
4.3.2 ORB特征提取与匹配可行性验证实验 | 第51-55页 |
4.3.3 视觉里程计算法改进验证 | 第55-59页 |
4.4 本章小结 | 第59-60页 |
第5章 面向导航和认知的室内地图创建 | 第60-80页 |
5.1 面向导航的三维地图创建 | 第60-69页 |
5.1.1 三维栅格地图创建 | 第60-63页 |
5.1.2 实验结果及分析 | 第63-69页 |
5.2 面向场景认知的室内地图创建 | 第69-78页 |
5.2.1 视觉词袋模型 | 第69-72页 |
5.2.2 基于视觉词袋模型的室内场景认知地图的创建与使用 | 第72-74页 |
5.2.3 实验结果及分析 | 第74-78页 |
5.3 本章小结 | 第78-80页 |
结论 | 第80-82页 |
参考文献 | 第82-86页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第86-87页 |
致谢 | 第87页 |