基于视觉惯性定位的虚拟相机定位研究与实现
摘要 | 第2-3页 |
Abstract | 第3页 |
1 绪论 | 第6-12页 |
1.1 研究背景 | 第6-7页 |
1.2 虚拟相机定位问题描述 | 第7-9页 |
1.2.1 基于滤波的视觉定位系统 | 第8页 |
1.2.2 基于优化的视觉定位系统 | 第8-9页 |
1.3 相关工作介绍 | 第9-10页 |
1.4 本文主要工作 | 第10-12页 |
2 视觉惯性定位系统相关技术介绍 | 第12-18页 |
2.1 单目相机成像模型 | 第12-14页 |
2.1.1 相机的内参数与外参数 | 第12-13页 |
2.1.2 畸变校正 | 第13-14页 |
2.2 对极几何与三角测量 | 第14-16页 |
2.2.1 对极几何 | 第14-15页 |
2.2.2 三角测量 | 第15页 |
2.2.3 本质矩阵的求解 | 第15-16页 |
2.3 惯性测量单元介绍 | 第16-17页 |
2.3.1 陀螺仪 | 第17页 |
2.3.2 加速度计 | 第17页 |
2.4 本章小结 | 第17-18页 |
3 基于特征点法的单目视觉里程计设计 | 第18-26页 |
3.1 基于ORB的特征匹配 | 第19-21页 |
3.1.1 ORB特征点提取 | 第19-20页 |
3.1.2 图像特征匹配 | 第20-21页 |
3.2 基于光束平差法的相机位姿优化 | 第21-23页 |
3.3 使用二进制字典的闭环检测 | 第23-24页 |
3.3.1 词袋模型 | 第23页 |
3.3.2 二进制字典 | 第23-24页 |
3.4 本章小结 | 第24-26页 |
4 惯性测量单元数据融合方法实现 | 第26-32页 |
4.1 坐标系转换 | 第26-27页 |
4.2 互补滤波法融合数据 | 第27-29页 |
4.3 梯度下降法融合数据 | 第29-30页 |
4.4 本章小结 | 第30-32页 |
5 虚拟相机定位系统架构与实现 | 第32-42页 |
5.1 基于C/S模式的系统架构 | 第32-35页 |
5.1.1 基于TCP的可靠数据传输 | 第33-34页 |
5.1.2 基于多线程的服务端设计 | 第34-35页 |
5.2 基于松耦合的自适应位姿融合方法实现 | 第35-37页 |
5.3 虚拟相机定位系统实现 | 第37-41页 |
5.3.1 系统模块划分 | 第37-39页 |
5.3.2 系统类实现 | 第39-41页 |
5.4 本章小结 | 第41-42页 |
6 实验分析与系统演示 | 第42-54页 |
6.1 实验设置与系统配置 | 第42-44页 |
6.1.1 相机标定 | 第42-43页 |
6.1.2 二进制ORB字典比较 | 第43-44页 |
6.1.3 系统相关配置 | 第44页 |
6.2 实验结果分析 | 第44-52页 |
6.2.1 IMU数据融合结果分析 | 第44-46页 |
6.2.2 视觉惯性定位结果分析 | 第46-50页 |
6.2.3 数据集测试 | 第50-52页 |
6.3 虚拟相机定位系统演示 | 第52-53页 |
6.4 本章小结 | 第53-54页 |
结论 | 第54-56页 |
参考文献 | 第56-60页 |
致谢 | 第60-62页 |