摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-18页 |
1.1 引言 | 第10页 |
1.2 课题背景和意义 | 第10-12页 |
1.3 三维重建技术研究现状 | 第12-16页 |
1.3.1 结构光法 | 第12-13页 |
1.3.2 立体视觉法 | 第13-14页 |
1.3.3 基于Kinect的三维重建 | 第14-16页 |
1.4 本文的研究内容及结构安排 | 第16-18页 |
1.4.1 本文研究内容 | 第16-17页 |
1.4.2 本文结构安排 | 第17-18页 |
第2章 三维点云数据的获取及设备驱动 | 第18-30页 |
2.1 开发工具 | 第18-20页 |
2.1.1 Kinect硬件结构介绍 | 第18-19页 |
2.1.2 Kinect软件结构介绍 | 第19-20页 |
2.1.3 Kinect传感器的应用 | 第20页 |
2.2 OpenNI开源框架介绍 | 第20-22页 |
2.3 PCL点云库 | 第22-23页 |
2.4 图像信息获取与坐标转换 | 第23-28页 |
2.4.1 Kinect传感器获取深度图像和彩色图像 | 第23页 |
2.4.2 坐标系概念 | 第23-25页 |
2.4.3 深度信息坐标变换 | 第25页 |
2.4.4 Kinect相机标定 | 第25-28页 |
2.5 点云数据 | 第28-29页 |
2.6 本章小结 | 第29-30页 |
第3章 基于深度图像的点云处理 | 第30-40页 |
3.1 深度图像噪声分析 | 第30-31页 |
3.2 深度图像预处理 | 第31-35页 |
3.2.1 均值滤波 | 第31-32页 |
3.2.2 中值滤波 | 第32-33页 |
3.2.3 高斯滤波 | 第33-34页 |
3.2.4 双边滤波 | 第34-35页 |
3.3 深度图像目标分割提取 | 第35-37页 |
3.4 深度图像孔洞修复 | 第37-39页 |
3.5 本章小结 | 第39-40页 |
第4章 基于Kinect的三维重建流程 | 第40-54页 |
4.1 引言 | 第40-41页 |
4.2 三维体积重建流程概述 | 第41-47页 |
4.2.1 图像获取与预处理 | 第42-43页 |
4.2.2 相机追踪 | 第43-45页 |
4.2.3 体积整合 | 第45-46页 |
4.2.4 数据输出 | 第46-47页 |
4.3 纹理映射 | 第47-48页 |
4.3.1 颜色体积 | 第47-48页 |
4.3.2 纹理网格提取 | 第48页 |
4.4 实验结果 | 第48-53页 |
4.5 本章小结 | 第53-54页 |
第5章 基于Kinect的三维重建系统实现 | 第54-61页 |
5.1 重建系统的设计与实现 | 第54-55页 |
5.2 软件的整体设计策略 | 第55-58页 |
5.2.1 Kinect驱动和MFC | 第55-56页 |
5.2.2 OpenGL模型渲染 | 第56-57页 |
5.2.3 GPU加速 | 第57-58页 |
5.2.4 体积包围盒 | 第58页 |
5.3 软件操作简介 | 第58-60页 |
5.4 本章小结 | 第60-61页 |
结论 | 第61-62页 |
参考文献 | 第62-67页 |
攻读硕士学位期间承担的科研任务与主要成果 | 第67-68页 |
致谢 | 第68页 |