摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第一章 绪论 | 第9-15页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 三维场景重构的研究现状 | 第10-13页 |
1.3 论文的主要研究内容和创新点 | 第13-14页 |
1.4 论文的章节安排 | 第14-15页 |
第二章 移动场景点云的获取与处理 | 第15-27页 |
2.1 引言 | 第15页 |
2.2 点云的获取 | 第15-19页 |
2.2.1 三种点云获取方式 | 第15-18页 |
2.2.2 kinect 简介 | 第18-19页 |
2.3 点云的精简 | 第19-21页 |
2.3.1 点云精简的要求 | 第19-20页 |
2.3.2 精简问题的定义 | 第20页 |
2.3.3 常用的几种精简算法 | 第20-21页 |
2.3.4 不同应用背景下的点云精简 | 第21页 |
2.4 点云的配准 | 第21-23页 |
2.4.1 点云配准问题的概述 | 第21-22页 |
2.4.2 点云配准技术的研究现状 | 第22-23页 |
2.5 点云的处理 | 第23-26页 |
2.5.1 点云处理开源函数库-PCL | 第23-24页 |
2.5.2 OpenNI 简介 | 第24-25页 |
2.5.3 GPU 并行加速 | 第25-26页 |
2.6 小结 | 第26-27页 |
第三章 基于 PFH 的移动场景点云精简算法 | 第27-37页 |
3.1 引言 | 第27页 |
3.2 算法概述 | 第27-30页 |
3.3 基于 PFH 的移动场景点云精简算法 | 第30-33页 |
3.3.1 问题的描述 | 第30-31页 |
3.3.2 算法思路分析 | 第31-32页 |
3.3.3 算法流程 | 第32-33页 |
3.4 实验结果与分析 | 第33-36页 |
3.4.1 不同平面上点的 PFH 的差异 | 第33-35页 |
3.4.2 标准差阈值与压缩率的关系 | 第35-36页 |
3.4.3 关于特征点的识别与区分问题 | 第36页 |
3.5 小结 | 第36-37页 |
第四章 基于区域遮罩的深度图像与 RGB 图像的融合 | 第37-48页 |
4.1 引言 | 第37页 |
4.2 深度图像与 RGB 图像 | 第37-39页 |
4.2.1 RGB 图像 | 第37-38页 |
4.2.2 深度图像 | 第38-39页 |
4.3 区域遮罩 | 第39页 |
4.4 基于区域遮罩的图像融合算法 | 第39-47页 |
4.4.1 算法的设计思想 | 第39-40页 |
3.4.2 算法的流程 | 第40页 |
4.4.3 算法的实施 | 第40-46页 |
4.4.4 算法的优点和积极效果 | 第46-47页 |
4.5 小结 | 第47-48页 |
第五章 基于 PFH 与信息融合的移动场景实时三维重构 | 第48-63页 |
5.1 引言 | 第48页 |
5.2 算法思路分析 | 第48-53页 |
5.2.1 点云精简与 ICP 算法 | 第49-50页 |
5.2.2 惯性导航与 ICP 算法 | 第50-51页 |
5.2.3 图像融合与三维重构 | 第51-53页 |
5.3 基于 PFH 与信息融合的移动场景实时三维重构 | 第53-56页 |
5.3.1 问题描述 | 第53页 |
5.3.2 算法流程 | 第53-56页 |
5.4 实验结果与分析 | 第56-62页 |
5.4.1 优化后 ICP 算法效率的提升 | 第56-57页 |
5.4.2 并行加速后的实时效果 | 第57-59页 |
5.4.3 基于图像融合的纹理映射效果 | 第59页 |
5.4.4 虚拟 3D 实验平台 | 第59-62页 |
5.5 小结 | 第62-63页 |
第六章 总结与展望 | 第63-65页 |
6.1 总结 | 第63-64页 |
6.2 展望 | 第64-65页 |
参考文献 | 第65-70页 |
致谢 | 第70-71页 |
附录:攻读硕士期间参加的项目及成果 | 第71页 |