摘要 | 第5-7页 |
abstract | 第7-8页 |
第1章 绪论 | 第13-25页 |
1.1 研究背景及意义 | 第13-14页 |
1.2 视觉SLAM的研究现状 | 第14-23页 |
1.2.1 视觉SLAM研究现状 | 第14-18页 |
1.2.2 基于多目的视觉SLAM研究现状 | 第18-20页 |
1.2.3 基于视觉与惯导融合的SLAM研究现状 | 第20-23页 |
1.3 本论文的研究内容及结构安排 | 第23-25页 |
第2章 多目视觉惯导模型构建及同步标定方法研究 | 第25-51页 |
2.1 多目视觉惯导模型构建 | 第25-30页 |
2.1.1 经典的共线方程 | 第25-26页 |
2.1.2 基于泰勒多项式的单相机模型及其对共线方程的扩展 | 第26-29页 |
2.1.3 多目视觉惯导模型 | 第29-30页 |
2.2 多目视觉惯导实验平台搭建 | 第30-33页 |
2.2.1 视觉传感单元选型 | 第30-32页 |
2.2.2 惯性测量单元选型 | 第32-33页 |
2.3 多传感器同步方法研究 | 第33-37页 |
2.3.1 基于硬件同步触发线的多传感器同步 | 第35-37页 |
2.4 多传感器标定方法 | 第37-49页 |
2.4.1 基于特征描述的单相机标定 | 第37-40页 |
2.4.2 改进的基于建图法的多相机系统标定 | 第40-42页 |
2.4.3 相机-IMU外参在线自标定 | 第42-49页 |
2.5 本章小结 | 第49-51页 |
第3章 多目视觉与惯导紧耦合的SLAM方法 | 第51-87页 |
3.1 基于多目视觉与惯导融合的SLAM的状态估计问题 | 第51-56页 |
3.1.1 SLAM状态估计问题描述 | 第51-52页 |
3.1.2 非线性优化求解SLAM状态估计问题的原理 | 第52-54页 |
3.1.3 一种紧耦合的多关键帧的视觉惯导非线性SLAM状态估计 | 第54-56页 |
3.2 基于多目视觉与惯导融合的SLAM的具体实现 | 第56-70页 |
3.2.1 基于多目视觉与惯导融合的初始化方法 | 第56-62页 |
3.2.2 基于多目视觉与惯导融合的里程计方法 | 第62-66页 |
3.2.3 基于多目视觉与惯导融合的稠密建图方法 | 第66-70页 |
3.3 实验研究与分析 | 第70-85页 |
3.3.1 自建多目视觉惯导数据集 | 第70-71页 |
3.3.2 多目视觉惯导里程计性能验证实验 | 第71-83页 |
3.3.3 基于多目视觉惯导融合的稠密建图验证实验 | 第83-85页 |
3.4 本章小结 | 第85-87页 |
第4章 基于多目视觉与惯导融合的SLAM的CUDA并行加速算法 | 第87-107页 |
4.1 多目视觉惯导SLAM并行加速 | 第87-92页 |
4.1.1 多目视觉惯导SLAM算法效率问题 | 第87页 |
4.1.2 并行计算与CUDA实现原理 | 第87-92页 |
4.2 基于CUDA的多目视觉惯导SLAM并行加速算法 | 第92-100页 |
4.2.1 图像预处理 | 第92-95页 |
4.2.2 特征提取并行化 | 第95-98页 |
4.2.3 特征匹配并行化 | 第98-99页 |
4.2.4 多线程并行化 | 第99-100页 |
4.3 实验研究与分析 | 第100-106页 |
4.3.1 特征提取算法实验 | 第101-102页 |
4.3.2 特征匹配算法实验 | 第102-103页 |
4.3.3 多线程并行化算法实验 | 第103-106页 |
4.4 本章小结 | 第106-107页 |
第5章 总结与展望 | 第107-109页 |
5.1 本文工作总结 | 第107-108页 |
5.2 进一步工作展望 | 第108-109页 |
参考文献 | 第109-119页 |
致谢 | 第119-121页 |
在读期间发表的学术论文与取得的其他成果 | 第121页 |