摘要 | 第4-5页 |
Abstract | 第5-6页 |
1 绪论 | 第18-27页 |
1.1 研究背景及意义 | 第18-20页 |
1.2 国内外研究现状 | 第20-23页 |
1.2.1 视觉导航定位研究现状 | 第20-21页 |
1.2.2 基于RGB-D相机导航定位研究现状 | 第21-23页 |
1.3 研究内容 | 第23-27页 |
1.3.1 论文研究内容 | 第23-24页 |
1.3.2 论文研究方案 | 第24-26页 |
1.3.3 论文章节安排 | 第26-27页 |
2 RGB-D相机严格成像几何模型 | 第27-49页 |
2.1 RGB-D相机介绍 | 第27-34页 |
2.1.1 RGB-D相机介绍 | 第27-29页 |
2.1.2 深度相机成像原理介绍 | 第29-34页 |
2.2 Kinect型RGB-D相机严格成像几何模型构建 | 第34-48页 |
2.2.1 RGB-D相机几何模型构建原理 | 第34-37页 |
2.2.2 RGB-D相机标定 | 第37-45页 |
2.2.3 深度相机量测精度标定 | 第45-48页 |
2.3 本章小结 | 第48-49页 |
3 RGB-D相机二三维信息一体化定位解算模型 | 第49-81页 |
3.1 概述 | 第49-50页 |
3.2 特征点检测与追踪 | 第50-65页 |
3.2.1 特征点检测追踪方法 | 第50-59页 |
3.2.2 匹配点粗差剔除 | 第59-60页 |
3.2.3 特征点精度分析 | 第60-65页 |
3.3 二三维信息一体化定位解算模型构建 | 第65-71页 |
3.3.1 初始化位置解算 | 第65-66页 |
3.3.2 定位模型构建 | 第66-71页 |
3.4 实验验证 | 第71-79页 |
3.5 本章小结 | 第79-81页 |
4 RGB-D相机实时导航定位算法 | 第81-101页 |
4.1 概述 | 第81页 |
4.2 实时系统解析 | 第81-90页 |
4.2.1 关键帧策略 | 第83-84页 |
4.2.2 图优化策略 | 第84-88页 |
4.2.3 词袋模型 | 第88-90页 |
4.2.4 实时定位系统介绍 | 第90页 |
4.3 高精度点云制图 | 第90-96页 |
4.3.1 面元表示模型 | 第91-92页 |
4.3.2 深度影像与RGB影像融合预测追踪 | 第92-93页 |
4.3.3 变形图及其优化 | 第93-95页 |
4.3.4 制图系统介绍 | 第95-96页 |
4.4 实验验证 | 第96-99页 |
4.5 本章小结 | 第99-101页 |
5 结论与展望 | 第101-104页 |
5.1 主要研究成果及创新点 | 第101-102页 |
5.1.1 论文的主要研究成果 | 第101-102页 |
5.1.2 论文工作的创新之处 | 第102页 |
5.2 下一步工作 | 第102-104页 |
参考文献 | 第104-112页 |
博士期间发表文章 | 第112-113页 |
攻读博士期间参与项目 | 第113页 |
奖励情况 | 第113-114页 |
致谢 | 第114-115页 |