摘要 | 第5-6页 |
abstract | 第6-7页 |
第1章 绪论 | 第10-19页 |
1.1 研究背景与意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-16页 |
1.2.1 相机自标定 | 第11-12页 |
1.2.2 三维重建技术 | 第12-15页 |
1.2.3 三维重建计算优化 | 第15-16页 |
1.3 论文主要内容和创新点 | 第16-17页 |
1.4 论文组织结构 | 第17-19页 |
第2章 基于RGBD图像的相机自标定技术 | 第19-38页 |
2.1 Kinect图像数据及其预处理 | 第19-25页 |
2.1.1 Kinect硬件与深度图像 | 第19-21页 |
2.1.2 Kinect深度图像预处理算法 | 第21-25页 |
2.2 基于RGBD图像的相机自标定流程 | 第25-26页 |
2.3 深度(Depth)图像和彩色(RGB)图像对齐 | 第26-28页 |
2.4 基于RGBD图像特征点的提取和匹配 | 第28-33页 |
2.4.1 传统的基于RGB图像特征点的提取和匹配方法 | 第29-31页 |
2.4.2 基于RGBD图像特征点的提取与匹配方法 | 第31-32页 |
2.4.3 基于RGBD图像特征点的提取与匹配实验结果分析 | 第32-33页 |
2.5 相机参数估算 | 第33-34页 |
2.6 基于RGBD图像的相机自标定实验结果分析 | 第34-37页 |
2.7 本章小结 | 第37-38页 |
第3章 基于Depth图像的动态三维点云重建技术 | 第38-46页 |
3.1 基于Depth图像的动态三维点云重建流程 | 第38-39页 |
3.2 点云精简 | 第39-42页 |
3.2.1 基于深度图像梯度约束的分区域点云精简 | 第39-40页 |
3.2.2 基于深度图像梯度约束的分区域点云精简实验结果分析 | 第40-42页 |
3.3 三维点云数据的模型重建 | 第42-45页 |
3.4 本章小结 | 第45-46页 |
第4章 计算优化 | 第46-54页 |
4.1 GPU计算架构 | 第46-50页 |
4.2 基于GPU三维点云坐标系转换 | 第50-53页 |
4.2.1 并行算法设计 | 第51页 |
4.2.2 基于GPU并行计算优化实验结果分析 | 第51-53页 |
4.3 本章小结 | 第53-54页 |
第5章 总结和展望 | 第54-56页 |
参考文献 | 第56-60页 |
攻读学位期间参与的研究项目 | 第60-61页 |
致谢 | 第61-62页 |
附录A | 第62页 |