摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 绪论 | 第13-22页 |
1.1 研究背景和意义 | 第13-15页 |
1.2 三维重建技术的简介 | 第15-18页 |
1.3 三维重建技术的研究现状 | 第18-20页 |
1.4 本文的主要内容和结构安排 | 第20-22页 |
第二章 基于Kinect数据采集的相关原理 | 第22-29页 |
2.1 Kinect深度相机 | 第22-27页 |
2.1.1 Kinect硬件结构 | 第23-24页 |
2.1.2 Kinect工作原理 | 第24-27页 |
2.2 OpenNI开源框架 | 第27-28页 |
2.3 本章小结 | 第28-29页 |
第三章 实验环境配置 | 第29-33页 |
3.1 硬件平台 | 第29页 |
3.2 软件平台 | 第29-32页 |
3.2.1 VTK的功能和配置 | 第30-31页 |
3.2.2 OpenCV的功能和配置 | 第31-32页 |
3.2.3 其它第三方库 | 第32页 |
3.3 本章小结 | 第32-33页 |
第四章 基于点云几何特征的错误匹配点剔除算法 | 第33-44页 |
4.1 引言 | 第33页 |
4.2 错误匹配点产生原因分析 | 第33-34页 |
4.3 算法流程 | 第34-35页 |
4.4 特征点提取 | 第35页 |
4.5 匹配点的确定 | 第35-36页 |
4.6 错误匹配点对的剔除 | 第36-39页 |
4.6.1 相关的研究 | 第36-37页 |
4.6.2 基于双阈值的错误匹配点剔除 | 第37-39页 |
4.7 变换矩阵求解 | 第39-40页 |
4.8 实验结果与分析 | 第40-43页 |
4.9 本章小结 | 第43-44页 |
第五章 基于Kinect的三维场景实时重建 | 第44-67页 |
5.1 引言 | 第44-49页 |
5.1.1 概述 | 第44-46页 |
5.1.2 基本数学模型 | 第46-49页 |
5.2 噪声去除 | 第49-51页 |
5.3 深度图像转换 | 第51-54页 |
5.3.1 转换过程 | 第51-53页 |
5.3.2 向量估计的改进 | 第53-54页 |
5.4 相机追踪 | 第54-58页 |
5.4.1 ICP算法 | 第55页 |
5.4.2 匹配点的确定 | 第55-56页 |
5.4.3 变换矩阵T求解 | 第56-57页 |
5.4.4 带有权重的ICP点云配准 | 第57-58页 |
5.5 点云融合 | 第58-61页 |
5.5.1 体集成 | 第58-60页 |
5.5.2 权重系数优化 | 第60页 |
5.5.3 颜色融合 | 第60-61页 |
5.6 纹理映射 | 第61-62页 |
5.7 表面生成 | 第62-64页 |
5.7.1 移动立方体(Marching Cubes)算法 | 第62页 |
5.7.2 确定等值面与体素相交的情况 | 第62-63页 |
5.7.3 求等值面与体素边界的交点 | 第63-64页 |
5.8 实验结果分析 | 第64-66页 |
5.9 本章小结 | 第66-67页 |
第六章 总结与展望 | 第67-69页 |
6.1 研究总结 | 第67-68页 |
6.2 展望 | 第68-69页 |
参考文献 | 第69-75页 |
致谢 | 第75-76页 |
攻读硕士学位期间发表的学术论文 | 第76-77页 |
攻读硕士学位期间参与的科研项目 | 第77页 |