摘要 | 第5-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 研究的背景和意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-13页 |
1.2.1 场景分类技术的国内外研究现状 | 第11-12页 |
1.2.2 视觉定位国内外研究现状 | 第12-13页 |
1.3 室内视觉定位面临的挑战 | 第13-14页 |
1.4 主要研究内容和组织结构 | 第14-16页 |
1.4.1 主要研究内容 | 第14页 |
1.4.2 组织结构 | 第14-16页 |
第2章 视觉导航定位系统 | 第16-34页 |
2.1 相机的成像模型 | 第16-19页 |
2.1.1 坐标系 | 第16-18页 |
2.1.2 相机的针孔成像模型 | 第18页 |
2.1.3 相机的畸变参数 | 第18-19页 |
2.2 相机标定 | 第19-24页 |
2.2.1 相机标定简介 | 第19页 |
2.2.2 基于棋盘格的半自动标定法 | 第19-22页 |
2.2.3 标定实验过程和结果 | 第22-24页 |
2.3 视觉里程计 | 第24-32页 |
2.3.1 SIFT特征提取与匹配 | 第25-29页 |
2.3.2 运动估计算法 | 第29-32页 |
2.4 视觉定位的流程 | 第32页 |
2.5 本章小结 | 第32-34页 |
第3章 改进的空间金字塔词袋模型的场景分类 | 第34-51页 |
3.1 词袋模型的基本原理 | 第34-36页 |
3.2 词袋模型的基本技术 | 第36-42页 |
3.2.1 K-means聚类算法 | 第36-37页 |
3.2.2 SVM分类器 | 第37-40页 |
3.2.3 SPM模型的原理与步骤 | 第40-42页 |
3.3 改进的空间金字塔词袋模型的室内场景分类算法 | 第42-46页 |
3.3.1 改进的K-means聚类算法 | 第42-43页 |
3.3.2 直方图交叉核函数 | 第43-45页 |
3.3.3 算法流程 | 第45-46页 |
3.4 实验结果及结论 | 第46-49页 |
3.4.1 实验数据集 | 第46页 |
3.4.2 实验结果及分析 | 第46-49页 |
3.5 本章小结 | 第49-51页 |
第4章 视觉与惯性导航融合的定位算法 | 第51-71页 |
4.1 惯性导航理论 | 第51-58页 |
4.1.1 惯性导航常用坐标系 | 第51-52页 |
4.1.2 惯性导航姿态表达式 | 第52-54页 |
4.1.3 捷联惯性导航系统原理 | 第54页 |
4.1.4 惯性定位流程 | 第54-55页 |
4.1.5 惯性导航的姿态解算 | 第55-58页 |
4.2 融合惯性导航的视觉定位 | 第58-64页 |
4.2.1 扩展卡尔曼滤波 | 第60-62页 |
4.2.2 FAST特征提取与匹配 | 第62页 |
4.2.3 去除误匹配的RANSAC算法 | 第62-63页 |
4.2.4 融合IMU数据的RANSAC算法 | 第63-64页 |
4.3 实验结果与结论 | 第64-70页 |
4.3.1 实验的数据集和环境 | 第64页 |
4.3.2 定位算法评价指标 | 第64-65页 |
4.3.3 室内场景1实验 | 第65-68页 |
4.3.4 室内场景2实验 | 第68-70页 |
4.4 本章小结 | 第70-71页 |
结论 | 第71-73页 |
参考文献 | 第73-77页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第77-79页 |
致谢 | 第79页 |