摘要 | 第5-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第12-24页 |
1.1 课题的背景及研究意义 | 第12-14页 |
1.2 基于视觉的位姿估计技术研究现状 | 第14-21页 |
1.2.1 基于单目的位姿估计技术研究现状 | 第15-17页 |
1.2.2 基于双目、RGBD相机的位姿估计技术研究现状 | 第17-19页 |
1.2.3 视觉-IMU融合的位姿估计技术研究现状 | 第19-21页 |
1.3 本文的设计目标和实现内容 | 第21-22页 |
1.4 本章小节 | 第22-24页 |
第2章 位姿估计系统软硬件平台设计 | 第24-38页 |
2.1 系统总体设计框架 | 第24-25页 |
2.2 系统硬件设计 | 第25-30页 |
2.2.1 RGBD传感器Xtion Pro live | 第25-27页 |
2.2.2 惯性测量单元Xsens MTx-28A | 第27-30页 |
2.3 软件系统设计 | 第30-37页 |
2.3.1 机器人操作系统(ROS)简介 | 第30-35页 |
2.3.2 硬件驱动 | 第35-36页 |
2.3.3 算法实现需要的第三方软件开发库 | 第36-37页 |
2.4 本章小节 | 第37-38页 |
第3章 基于深度图像的位姿估计 | 第38-58页 |
3.1 深度相机模型及内参 | 第38-41页 |
3.1.1 针孔相机模型 | 第38-39页 |
3.1.2 相机内参校准 | 第39-41页 |
3.2 基于深度图像的视觉位姿估计理论推导 | 第41-47页 |
3.2.1 用李代数描述相机运动 | 第41-43页 |
3.2.2 深度图像位姿估计理论推导 | 第43-47页 |
3.3 深度图像位姿估计的实现 | 第47-56页 |
3.3.1 软件实现流程 | 第47-49页 |
3.3.2 深度图像去除外点和高斯滤波 | 第49-51页 |
3.3.3 图像梯度和奇异值分解 | 第51-53页 |
3.3.4 图像金字塔、双边线性插值 | 第53-54页 |
3.3.5 局部位姿图优化 | 第54-56页 |
3.4 本章小结 | 第56-58页 |
第4章 深度图像-IMU融合的位姿估计 | 第58-70页 |
4.1 Camera-IMU空间标定与时间同步 | 第58-61页 |
4.1.1 Camera-IMU空间标定 | 第58-60页 |
4.1.2 Camera-IMU数据的时间同步 | 第60-61页 |
4.2 基于互补滤波器的IMU位姿解算 | 第61-67页 |
4.2.1 由加速度数据求解姿态的原理 | 第62-64页 |
4.2.2 由陀螺仪测量值求解姿态估计值 | 第64页 |
4.2.3 融合加速度测量值求解位姿 | 第64-66页 |
4.2.4 IMU姿态估计的软件实现流程 | 第66-67页 |
4.3 IMU与Camera位姿估计融合 | 第67-69页 |
4.3.1 紧耦合位姿估计融合 | 第67-68页 |
4.3.2 融合IMU数据的位姿估计实现流程 | 第68-69页 |
4.4 本章小节 | 第69-70页 |
第5章 实验验证 | 第70-78页 |
5.1 基于深度图像直接法位姿估计的实验验证 | 第70-75页 |
5.1.1 简单的公开数据集 | 第71-73页 |
5.1.2 复杂的公开数据集 | 第73-75页 |
5.2 融合IMU位姿估计鲁棒性实验验证 | 第75-77页 |
5.3 本章小节 | 第77-78页 |
第6章 总结与展望 | 第78-80页 |
6.1 工作总结 | 第78页 |
6.2 工作展望 | 第78-80页 |
参考文献 | 第80-84页 |
致谢 | 第84-86页 |
攻读硕士学位期间的主要工作 | 第86页 |