致谢 | 第5-6页 |
摘要 | 第6-7页 |
ABSTRACT | 第7-8页 |
1 引言 | 第11-19页 |
1.1 研究背景与意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-16页 |
1.2.1 三维重建研究现状 | 第12-15页 |
1.2.2 人机交互技术研究现状 | 第15-16页 |
1.3 主要研究内容 | 第16-17页 |
1.4 章节安排 | 第17-19页 |
2 数据获取与预处理 | 第19-35页 |
2.1 深度数据获取 | 第19-23页 |
2.1.1 常见深度数据获取技术 | 第19-21页 |
2.1.2 Kinect深度数据获取 | 第21-23页 |
2.2 数据预处理 | 第23-33页 |
2.2.1 摄像机成像原理 | 第23-25页 |
2.2.2 深度图像与彩色图像的对齐操作 | 第25-27页 |
2.2.3 深度图像去噪与填补 | 第27-32页 |
2.2.4 深度图像的深度阂值分割 | 第32-33页 |
2.3 本章小结 | 第33-35页 |
3 基于改进KinectFusion方法的三维重建 | 第35-54页 |
3.1 总体框架 | 第35-36页 |
3.2 点云数据生成 | 第36-37页 |
3.3 点云配准 | 第37-45页 |
3.3.1 常用配准方法 | 第37-38页 |
3.3.2 基于KinectFusion的ICP密集点云配准 | 第38-42页 |
3.3.3 基于ICP的点云配准方法改进 | 第42-45页 |
3.4 模型表面重建 | 第45-50页 |
3.4.1 常见表面重建算法 | 第45-46页 |
3.4.2 基于TSDF的数据融合算法 | 第46-48页 |
3.4.3 基于光线投射法的模型表面渲染 | 第48-50页 |
3.5 纹理映射 | 第50-53页 |
3.5.1 常见纹理映射技术 | 第50-51页 |
3.5.2 基于颜色融合的纹理映射 | 第51-53页 |
3.6 本章小结 | 第53-54页 |
4 基于Kinect交互的三维展示平台实现 | 第54-62页 |
4.1 Kinect骨骼跟踪原理 | 第54-56页 |
4.1.1 人体信息分割 | 第54-55页 |
4.1.2 人体关键部位识别 | 第55-56页 |
4.1.3 关节点生成 | 第56页 |
4.2 三维展示与交互平台实现 | 第56-61页 |
4.2.1 OpenGL三维模型展示 | 第57-58页 |
4.2.2 骨骼跟踪到键盘鼠标事件的映射 | 第58-59页 |
4.2.3 平台展示 | 第59-61页 |
4.3 本章小结 | 第61-62页 |
5 结论 | 第62-64页 |
参考文献 | 第64-67页 |
作者简历及攻读硕士/博士学位期间取得的研究成果 | 第67-69页 |
学位论文数据集 | 第69页 |