摘要 | 第5-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-20页 |
1.1 本文研究背景 | 第10-13页 |
1.2 国内外研究现状及发展趋势 | 第13-16页 |
1.3 本文研究意义 | 第16页 |
1.4 本文主要研究内容及章节安排 | 第16-18页 |
1.5 本章小结 | 第18-20页 |
第二章 RGB-D传感器的深度图像的校正方法 | 第20-34页 |
2.1 引言 | 第20-22页 |
2.2 深度图像校正方法 | 第22-26页 |
2.2.1 ANN的特性 | 第23页 |
2.2.2 条状平面模板的制备和数据采集 | 第23-25页 |
2.2.3 ANN模型训练 | 第25-26页 |
2.2.4 通过ANN校正模型校正深度图像 | 第26页 |
2.3 实验和结果分析 | 第26-33页 |
2.3.1 相同距离但不同反射率:反射率相关深度误差 | 第28页 |
2.3.2 相同反射率但不同距离:距离相关深度误差 | 第28-30页 |
2.3.3 训练神经网络模型和校正深度图像 | 第30-32页 |
2.3.4 在室内场景三维重建中的应用 | 第32-33页 |
2.4 本章小结 | 第33-34页 |
第三章 基于ORB-SLAM2构建实时稠密三维重建模块 | 第34-56页 |
3.1 引言 | 第34页 |
3.2 ORB-SLAM2系统中的关键技术 | 第34-42页 |
3.2.1 基于图像金字塔模型的ORB特征提取 | 第36-38页 |
3.2.2 关键帧的筛选 | 第38-39页 |
3.2.3 非线性优化 | 第39-41页 |
3.2.4 闭环检测和重定位中的位置识别 | 第41-42页 |
3.3 构建稠密三维重建模块 | 第42-45页 |
3.4 实验验证分析 | 第45-53页 |
3.4.1 TUM数据集实验验证 | 第45-46页 |
3.4.2 实验室场景实验验证 | 第46-50页 |
3.4.3 实验室场景实验结果分析 | 第50-53页 |
3.5 本章小结 | 第53-56页 |
第四章 基于ORB-SLAM2的RGB-D图像和IMU信息融合 | 第56-72页 |
4.1 引言 | 第56-59页 |
4.2 RGB-D图像信息和IMU信息融合 | 第59-66页 |
4.2.1 IMU预积分 | 第59-62页 |
4.2.2 视觉惯性联合初始化 | 第62-63页 |
4.2.3 视觉惯性紧耦合优化 | 第63-65页 |
4.2.4 基于ORB-SLAM2视觉惯性融合的稠密三维重建模块构建 | 第65-66页 |
4.3 实验验证与结果分析 | 第66-69页 |
4.3.1 RGB-D传感器的标定 | 第66-68页 |
4.3.2 实验室场景实验 | 第68-69页 |
4.4 本章小结 | 第69-72页 |
第五章 总结与展望 | 第72-74页 |
5.1 工作总结 | 第72页 |
5.2 未来展望 | 第72-74页 |
参考文献 | 第74-80页 |
致谢 | 第80-82页 |
作者攻读学位期间发表的学术论文及专利目录 | 第82页 |