搭载混合视觉系统的无人机对大场景的三维重建技术研究
中文摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 引言 | 第8-15页 |
1.1 课题研究的背景及意义 | 第8-9页 |
1.2 论文涉及的关键技术研究现状 | 第9-13页 |
1.2.1 无人机以及相关技术的研究现状 | 第9-12页 |
1.2.2 三维重建技术研究现状 | 第12-13页 |
1.3 论文的主要内容 | 第13页 |
1.4 本文结构安排 | 第13-15页 |
第二章 重建系统简介与传感器系统标定 | 第15-29页 |
2.1 系统概述 | 第15-17页 |
2.2 单线激光雷达三维点云获取方法 | 第17-19页 |
2.3 相机标定方法简介 | 第19-26页 |
2.3.1 参考坐标系 | 第19-21页 |
2.3.2 相机的数学模型 | 第21-23页 |
2.3.3 相机标定过程简介 | 第23-26页 |
2.4 混合视觉系统中相机-激光雷达联合标定过程 | 第26-28页 |
2.5 本章小结 | 第28-29页 |
第三章 混合视觉系统中里程计方法构造 | 第29-37页 |
3.1 图像Harris特征点提取与匹配过程 | 第29-32页 |
3.1.1 图像Harris特征点提取方法 | 第29-30页 |
3.1.2 Harris特征匹配过程 | 第30-32页 |
3.2 混合视觉系统中Lidar里程计构建算法 | 第32-36页 |
3.2.1 MbICP算法 | 第32-33页 |
3.2.2 PSM算法 | 第33-34页 |
3.2.3 LOAM算法 | 第34-36页 |
3.3 本章小结 | 第36-37页 |
第四章 基于扩展卡尔曼滤波的多数据融合算法 | 第37-46页 |
4.1 卡尔曼滤波的基本原理 | 第37-40页 |
4.1.1 经典卡尔曼滤波 | 第37-39页 |
4.1.2 扩展卡尔曼滤波原理 | 第39-40页 |
4.2 混合视觉里程计融合算法 | 第40-45页 |
4.2.1 建立系统模型 | 第41-43页 |
4.2.2 建立观测模型 | 第43-45页 |
4.3 本章小结 | 第45-46页 |
第五章 无人机对大场景三维重建系统的实现 | 第46-61页 |
5.1 视觉里程计与点云地图构建算法 | 第46-51页 |
5.1.1 基于点云信息的特征点深度值匹配 | 第46-48页 |
5.1.2 结合深度信息的视觉里程计算法 | 第48-49页 |
5.1.3 大场景点云地图三维重建过程 | 第49-51页 |
5.2 基于ROS系统的实现 | 第51-55页 |
5.3 仿真实验与真实三维重建 | 第55-59页 |
5.3.1 使用Gazebo软件仿真 | 第55-57页 |
5.3.2 真实场景三维重建实验 | 第57-59页 |
5.4 总结 | 第59-61页 |
结论及展望 | 第61-62页 |
参考文献 | 第62-65页 |
致谢 | 第65-66页 |
个人简历、在学期间的研究成果及发表的学术论文 | 第66页 |