致谢 | 第4-5页 |
摘要 | 第5-6页 |
ABSTRACT | 第6页 |
1 绪论 | 第11-22页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-20页 |
1.2.1 室内定位技术的发展现状 | 第12-13页 |
1.2.2 视觉SLAM的发展现状 | 第13-17页 |
1.2.3 视觉多传感器融合SLAM的发展现状 | 第17-20页 |
1.3 基于视觉SLAM的机器人室内定位技术核心问题分析 | 第20页 |
1.4 本文的组织架构 | 第20-22页 |
2 双目视觉信息处理 | 第22-41页 |
2.1 引言 | 第22页 |
2.2 相机模型建立 | 第22-25页 |
2.2.1 相机投影模型建立 | 第22-24页 |
2.2.2 双目相机测距模型建立 | 第24-25页 |
2.2.3 相机畸变模型建立 | 第25页 |
2.3 特征点检测与描述 | 第25-29页 |
2.3.1 FAST关键点检测 | 第26-27页 |
2.3.2 BRIEF特征描述子 | 第27页 |
2.3.3 ORB特征 | 第27-29页 |
2.4 双目位姿解算 | 第29-34页 |
2.4.1 李群李代数的位姿表示方法 | 第29-32页 |
2.4.2 双目特征点匹配 | 第32-33页 |
2.4.3 基于RANSAC EPnP的位姿求解 | 第33-34页 |
2.5 回环检测及矫正 | 第34-39页 |
2.5.1 图优化 | 第34-35页 |
2.5.2 词袋库模型 | 第35-37页 |
2.5.3 回环检测 | 第37页 |
2.5.4 回环矫正 | 第37-39页 |
2.6 双目相机标定实验 | 第39-40页 |
2.7 本章总结 | 第40-41页 |
3 融合里程计和IMU算法研究 | 第41-57页 |
3.1 引言 | 第41页 |
3.2 里程计模型建立 | 第41-48页 |
3.2.1 机器人运动学模型分析 | 第42-44页 |
3.2.2 里程计误差分析 | 第44-45页 |
3.2.3 里程计误差标定实验 | 第45-48页 |
3.3 IMU数据处理 | 第48-55页 |
3.3.1 IMU数据校准实验 | 第49-52页 |
3.3.2 基于EKF融合陀螺仪与加速度计 | 第52-55页 |
3.4 里程计与IMU数据融合 | 第55-56页 |
3.5 本章小结 | 第56-57页 |
4 基于图优化的多传感器融合算法研究 | 第57-70页 |
4.1 引言 | 第57页 |
4.2 系统框架搭建 | 第57-58页 |
4.3 前端追踪模块搭建 | 第58-59页 |
4.4 后端优化 | 第59-69页 |
4.4.1 基于双目视觉的特征地图优化 | 第59-64页 |
4.4.2 基于融合后里程计的位姿图优化 | 第64-68页 |
4.4.3 基于全局平面约束的位姿图优化 | 第68-69页 |
4.5 本章小结 | 第69-70页 |
5 实验与结果分析 | 第70-80页 |
5.1 引言 | 第70页 |
5.2 实验系统搭建 | 第70-71页 |
5.3 定位精度实验与结果分析 | 第71-75页 |
5.3.1 融合里程计定位精度实验 | 第72-73页 |
5.3.2 多传感器融合定位精度实验 | 第73-75页 |
5.4 定位鲁棒性实验与结果分析 | 第75-79页 |
5.4.1 动态干扰定位实验 | 第75-77页 |
5.4.2 光照明暗干扰定位实验 | 第77页 |
5.4.3 纹理缺失环境下的定位实验 | 第77-79页 |
5.5 本章小结 | 第79-80页 |
6 总结与展望 | 第80-82页 |
6.1 总结 | 第80页 |
6.2 展望 | 第80-82页 |
参考文献 | 第82-85页 |