摘要 | 第4-6页 |
abstract | 第6-7页 |
第1章 引言 | 第13-19页 |
1.1 课题来源及研究的背景和意义 | 第13-14页 |
1.1.1 课题来源 | 第13页 |
1.1.2 课题研究背景和意义 | 第13-14页 |
1.2 国内外研究现状 | 第14-17页 |
1.2.1 国外研究综述 | 第14-15页 |
1.2.2 国内研究综述 | 第15-17页 |
1.3 本文主要研究内容和结构安排 | 第17-19页 |
1.3.1 本文主要研究内容 | 第17-18页 |
1.3.2 本文结构安排 | 第18-19页 |
第2章 深度传感器与实验系统构架 | 第19-31页 |
2.1 针孔相机模型与坐标系变换 | 第19-22页 |
2.1.1 针孔相机模型 | 第19-22页 |
2.1.2 坐标系变换 | 第22页 |
2.2 深度相机测量原理及其标定原理和实验 | 第22-28页 |
2.2.1 深度相机测量原理 | 第22-25页 |
2.2.2 深度相机标定原理与实验 | 第25-28页 |
2.3 视觉SLAM系统架构与模块 | 第28-29页 |
2.3.1 视觉SLAM系统 | 第28页 |
2.3.2 视觉SLAM前端 | 第28-29页 |
2.3.3 视觉SLAM后端 | 第29页 |
2.3.4 回环检测部分 | 第29页 |
2.3.5 地图构建 | 第29页 |
2.4 本章小结 | 第29-31页 |
第3章 基于ORB特征的前端视觉里程计 | 第31-49页 |
3.1 特征的检测与描述 | 第31-35页 |
3.1.1 SIFT特征点的检测与描述 | 第31-32页 |
3.1.2 ORB特征点的检测与描述 | 第32-35页 |
3.2 不同特征点下的对比与实验 | 第35-37页 |
3.3 基于非线性优化的视觉里程计原理 | 第37-47页 |
3.3.1 PnP方法求取帧间相机运动 | 第37-41页 |
3.3.2 基于非线性优化的求取帧间相机运动 | 第41-44页 |
3.3.3 PnP方法与基于非线性优化方法的对比 | 第44-47页 |
3.4 本章小结 | 第47-49页 |
第4章 混合视觉里程计 | 第49-63页 |
4.1 混合视觉里程计系统组成框架 | 第49-51页 |
4.2 基于直接方法的视觉定位理论分析 | 第51-56页 |
4.2.1 基于直接方法的视觉里程计实验测定 | 第54-56页 |
4.3 评分函数 | 第56-61页 |
4.3.1 评分函数超参数的实验测定与分析 | 第57-60页 |
4.3.2 混合视觉里程计与基于特征点的视觉里程计的鲁棒性实验对比 | 第60-61页 |
4.4 本章小结 | 第61-63页 |
第5章 SLAM系统后端地图创建 | 第63-73页 |
5.1 实验硬件平台 | 第63-65页 |
5.2 平台软件架构 | 第65页 |
5.3 稠密点云地图生成 | 第65-68页 |
5.4 基于优化轨迹反馈的点云地图创建与RGB-DSLAM系统比较实验 | 第68-71页 |
5.4.1 位姿轨迹优化 | 第68-69页 |
5.4.2 本文系统的精度与鲁棒性评估 | 第69-71页 |
5.5 本系统与SVO系统的对比实验 | 第71-72页 |
5.6 点云地图与八叉树地图结果比较分析 | 第72页 |
5.7 本章小结 | 第72-73页 |
第6章 结论与展望 | 第73-75页 |
6.1 结论 | 第73页 |
6.2 创新点 | 第73-74页 |
6.3 展望 | 第74-75页 |
参考文献 | 第75-79页 |
致谢 | 第79-81页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第81页 |