基于ROS的惯性导航和视觉信息融合的移动机器人定位研究
摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 绪论 | 第8-13页 |
1.1 研究背景与意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-11页 |
1.3 移动机器人定位导航技术 | 第11-12页 |
1.4 本文研究的内容和方法 | 第12-13页 |
第二章 惯性导航定位技术研究 | 第13-23页 |
2.1 惯性导航系统概述 | 第13-14页 |
2.2 导航基础 | 第14-18页 |
2.2.1 坐标系 | 第14-15页 |
2.2.2 姿态描述 | 第15-18页 |
2.3 姿态解算 | 第18-20页 |
2.3.1 姿态位姿解算 | 第18-19页 |
2.3.2 位移速度解算 | 第19-20页 |
2.4 航位推算 | 第20-21页 |
2.5 惯性导航定位实验分析 | 第21-22页 |
2.6 本章小结 | 第22-23页 |
第三章 视觉系统定位技术研究 | 第23-36页 |
3.1 摄像机成像原理 | 第23-27页 |
3.1.1 摄像机成像与坐标系的关系 | 第23-24页 |
3.1.2 摄像机成像过程 | 第24-25页 |
3.1.3 摄像机成像模型 | 第25-27页 |
3.2 基于张氏平面法的摄像机标定 | 第27-31页 |
3.2.1 张氏标定法描述 | 第27-29页 |
3.2.2 相机标定过程 | 第29-30页 |
3.2.3 标定结果 | 第30-31页 |
3.3 视觉定位 | 第31-35页 |
3.3.1 POSIT算法描述 | 第31-34页 |
3.3.2 POSIT算法步骤 | 第34页 |
3.3.3 平面POSIT算法 | 第34-35页 |
3.4 本章小结 | 第35-36页 |
第四章 融合IMU和SLAM的定位算法 | 第36-51页 |
4.1 基于单目相机的视觉里程计 | 第36-39页 |
4.1.1 视觉定位系统组成 | 第36页 |
4.1.2 视觉定位流程 | 第36-37页 |
4.1.3 视觉里程计模型 | 第37-39页 |
4.2 SLAM与ORB_SLAM | 第39-42页 |
4.2.1 SLAM综述 | 第39-40页 |
4.2.2 ORB_SLAM系统 | 第40-42页 |
4.3 视觉惯导SLAM系统 | 第42-48页 |
4.3.1 准备工作 | 第42-43页 |
4.3.2 单目视觉惯导SLAM系统 | 第43-45页 |
4.3.3 视觉惯导SLAM初始化 | 第45-48页 |
4.4 视觉惯导SLAM定位实验 | 第48-50页 |
4.5 本章小结 | 第50-51页 |
第五章 移动小车惯性和视觉导航方法的实验研究 | 第51-76页 |
5.1 实验硬件平台 | 第51-57页 |
5.1.1 硬件平台体系结构 | 第51-52页 |
5.1.2 传感器介绍 | 第52-53页 |
5.1.3 双轮差动机器人的计算公式 | 第53-57页 |
5.2 软件测试平台 | 第57-66页 |
5.2.1 ROS操作系统 | 第57-58页 |
5.2.2 ROS中常用的功能 | 第58-61页 |
5.2.3 导航基础 | 第61-66页 |
5.2.4 软件架构 | 第66页 |
5.3 定位实验的结果与分析 | 第66-75页 |
5.3.1 惯性导航定位测试 | 第66-71页 |
5.3.2 视觉惯导组合定位测试 | 第71-75页 |
5.4 本章小结 | 第75-76页 |
结论 | 第76-78页 |
参考文献 | 第78-83页 |
感谢 | 第83页 |