基于视觉和惯性导航动态组合定位方法研究
摘要 | 第3-5页 |
abstract | 第5-6页 |
1 绪论 | 第9-17页 |
1.1 课题研究意义及背景 | 第9-10页 |
1.2 视觉和惯性导航的研究现状 | 第10-13页 |
1.2.1 视觉定位技术的发展现状 | 第10-12页 |
1.2.2 惯性导航定位技术的发展和现状 | 第12-13页 |
1.3 基于视觉和惯性导航组合定位的研究现状 | 第13-15页 |
1.4 本文的研究内容和章节安排 | 第15-17页 |
2 组合定位的总体设计 | 第17-33页 |
2.1 组合定位系统的结构组成 | 第17-19页 |
2.2 基于Kinect的视觉感知系统分析 | 第19-28页 |
2.2.1 基于Kinect的视觉平台 | 第19-20页 |
2.2.2 Kinect的成像模型 | 第20-22页 |
2.2.3 基于Kinect的视觉定位原理 | 第22-23页 |
2.2.4 Kinect摄像机的标定 | 第23-28页 |
2.3 惯性导航的定位理论 | 第28-31页 |
2.3.1 捷联惯性导航的定位原理 | 第28-29页 |
2.3.2 惯性导航中常用的坐标系 | 第29页 |
2.3.3 姿态表示方法 | 第29-31页 |
2.4 本章小结 | 第31-33页 |
3 视觉和惯性导航的自主定位 | 第33-54页 |
3.1 引言 | 第33页 |
3.2 基于Kinect传感器的视觉定位 | 第33-44页 |
3.2.1 图像的特征点提取算法 | 第33-36页 |
3.2.2 图像特征的匹配 | 第36-38页 |
3.2.3 二维特征点误匹配剔除算法 | 第38-40页 |
3.2.4 融合深度信息的三维点集配准算法 | 第40-42页 |
3.2.5 基于迭代法的运动估计 | 第42-44页 |
3.3 惯性导航的自主定位 | 第44-53页 |
3.3.1 捷联惯导的姿态解算 | 第45-49页 |
3.3.2 捷联惯导的速度和位置解算 | 第49-51页 |
3.3.3 捷联惯导初始对准 | 第51-53页 |
3.4 本章小结 | 第53-54页 |
4 基于Kinect和惯性导航的组合定位方法 | 第54-69页 |
4.1 组合定位系统的数据融合结构和数据对准 | 第54-60页 |
4.1.1 组合定位系统的数据融合结构 | 第54-55页 |
4.1.2 Kinect和惯导的数据对准 | 第55-60页 |
4.2 组合定位策略设计 | 第60-63页 |
4.2.1 Kinect视觉定位误差分析 | 第60-61页 |
4.2.2 惯性导航的误差分析 | 第61-62页 |
4.2.3 融合策略设计 | 第62-63页 |
4.3 Kinect和惯性导航融合算法设计 | 第63-68页 |
4.3.1 多传感器融合理论 | 第63-66页 |
4.3.2 基于扩展卡尔曼滤波的融合算法设计 | 第66-68页 |
4.4 本章小结 | 第68-69页 |
5 组合定位实验与分析 | 第69-77页 |
5.1 实验平台的搭建 | 第69-70页 |
5.1.1 硬件平台 | 第69-70页 |
5.1.2 软件平台 | 第70页 |
5.2 惯导的实验分析 | 第70-72页 |
5.3 室内真实环境组合定位实验分析 | 第72-76页 |
5.4 本章小结 | 第76-77页 |
6 总结与展望 | 第77-79页 |
6.1 全文总结 | 第77页 |
6.2 后续工作展望 | 第77-79页 |
参考文献 | 第79-83页 |
攻读硕士学位期间发表的论文 | 第83-84页 |
致谢 | 第84-87页 |