基于自然场景的双目室内定位算法研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第11-21页 |
1.1 课题背景和研究意义 | 第11-13页 |
1.2 国内外研究现状 | 第13-18页 |
1.2.1 室内定位技术的研究现状 | 第13-16页 |
1.2.2 双目立体视觉的研究现状 | 第16-18页 |
1.3 本文的主要工作和论文结构安排 | 第18-21页 |
1.3.1 本文的主要工作 | 第18页 |
1.3.2 论文的结构安排 | 第18-21页 |
第2章 双目室内定位和相机标定 | 第21-37页 |
2.1 引言 | 第21页 |
2.2 基于双目相机的室内定位流程 | 第21-23页 |
2.3 双目相机模型 | 第23-28页 |
2.3.1 相机成像原理 | 第23-26页 |
2.3.2 双目相机测距原理 | 第26-28页 |
2.4 双目相机标定 | 第28-35页 |
2.4.1 双目相机标定方法 | 第28-30页 |
2.4.2 标定结果的筛选与验证 | 第30-35页 |
2.5 本章小结 | 第35-37页 |
第3章 基于ORB特征点的立体匹配算法 | 第37-49页 |
3.1 引言 | 第37页 |
3.2 ORB特征提取与匹配算法 | 第37-41页 |
3.2.1 特征点检测与定位 | 第37-39页 |
3.2.2 特征点描述算法 | 第39-40页 |
3.2.3 基于KNN的特征点匹配算法 | 第40页 |
3.2.4 特征点结果对比 | 第40-41页 |
3.3 补偿特征匹配的立体匹配算法 | 第41-44页 |
3.3.1 基于单应性矩阵的匹配点粗定位 | 第42-43页 |
3.3.2 基于像素灰度值的代价匹配 | 第43-44页 |
3.4 结果对比与分析 | 第44-46页 |
3.4.1 实验平台 | 第44页 |
3.4.2 运行时间对比 | 第44页 |
3.4.3 运行结果对比分析 | 第44-46页 |
3.5 本章小结 | 第46-49页 |
第4章 基于RANSAC的自然场景识别与定位 | 第49-69页 |
4.1 引言 | 第49页 |
4.2 室内场景的标定及数据库的建立 | 第49-52页 |
4.2.1 室内自然场景的标定 | 第49-50页 |
4.2.2 离线数据库的建立 | 第50-52页 |
4.3 基于RANSAC算法的自然场景识别 | 第52-64页 |
4.3.1 RANSAC算法原理 | 第52-54页 |
4.3.2 基于RANSAC算法的自然场景识别 | 第54-58页 |
4.3.3 改进的自然场景识别 | 第58-64页 |
4.4 室内定位精度分析并自然路标采样规则 | 第64-67页 |
4.4.1 室内定位平台介绍 | 第64页 |
4.4.2 室内定位结果展示 | 第64-66页 |
4.4.3 自然路标采样规则 | 第66-67页 |
4.5 本章小结 | 第67-69页 |
第5章 总结与展望 | 第69-71页 |
5.1 全文研究工作总结 | 第69-70页 |
5.2 后期展望 | 第70-71页 |
参考文献 | 第71-77页 |
攻读硕士期间发表的论文及其他成果 | 第77-79页 |
攻读硕士学位期间参加的科研活动和获得的奖励 | 第79-81页 |
致谢 | 第81页 |