基于Kinect的旋转物体非实时三维重建
摘要 | 第3-4页 |
abstract | 第4-5页 |
第一章 绪论 | 第9-17页 |
1.1 三维重建相关工作 | 第9-11页 |
1.1.1 基于激光扫描仪的三维建模 | 第10页 |
1.1.2 基于双目视觉的三维建模 | 第10-11页 |
1.1.3 基于结构光的深度数据获取与三维建模 | 第11页 |
1.2 Kinect简介 | 第11-14页 |
1.2.1 Kinect设备 | 第11-14页 |
1.2.2 Kinect软件开发工具包 | 第14页 |
1.3 论文主要内容 | 第14-17页 |
第二章 数据的获取 | 第17-27页 |
2.1 彩色数据的获取 | 第17页 |
2.2 深度数据的获取 | 第17-23页 |
2.2.1 深度数据的获取原理 | 第17-19页 |
2.2.2 深度数据的校正 | 第19-23页 |
2.3 数据持久化 | 第23-24页 |
2.4 小结 | 第24-27页 |
第三章 建模目标的提取 | 第27-37页 |
3.1 运动目标的提取 | 第27-31页 |
3.1.1 几种常见检测算法的比较 | 第27-28页 |
3.1.2 基于彩色数据的目标检测 | 第28-30页 |
3.1.3 检测结果的形态学处理 | 第30-31页 |
3.2 深度数据运动目标检测 | 第31-35页 |
3.3 实验结果 | 第35页 |
3.4 小结 | 第35-37页 |
第四章 特征点匹配 | 第37-51页 |
4.1 运动目标掩膜下的特征点检测 | 第37-40页 |
4.1.1 几种常见的特征检测点方法 | 第37-38页 |
4.1.2 特征检测算法的参数选择 | 第38-40页 |
4.2 特征点匹配算法 | 第40-43页 |
4.2.1 特征点的描述 | 第41-42页 |
4.2.2 特征点匹配算法简介 | 第42-43页 |
4.2.3 特征点匹配算法的选取 | 第43页 |
4.3 错误匹配的剔除 | 第43-45页 |
4.3.1 错误的产生 | 第43页 |
4.3.2 去除错误匹配点 | 第43-45页 |
4.4 匹配结果的组织方式 | 第45-46页 |
4.4.1 序列式组织方式 | 第45-46页 |
4.4.2 序列组织方式的改进 | 第46页 |
4.5 关键数据帧的选择 | 第46-49页 |
4.5.1 特征点匹配数量下限的选择 | 第47页 |
4.5.2 特征点匹配数量上限的选择 | 第47-49页 |
4.5.3 关键帧选择的算法描述 | 第49页 |
4.6 小结 | 第49-51页 |
第五章 三维模型的建立 | 第51-55页 |
5.1 原始深度数据到模型坐标的转换 | 第51页 |
5.2 由匹配结果计算重要帧之间的几何关系 | 第51-52页 |
5.3 由几何关系将深度数据点云添加到模型中 | 第52-54页 |
5.3.1 转换模型 | 第52-53页 |
5.3.2 求解变换模型 | 第53页 |
5.3.3 点到点的三维变换 | 第53-54页 |
5.4 小结 | 第54-55页 |
第六章 总结 | 第55-57页 |
6.1 应用前景 | 第55-56页 |
6.2 不足之处 | 第56-57页 |
附录一 Kinect相关库函数及使用方法 | 第57-59页 |
附录二 不同参数下特征点检测的数目的平均情况 | 第59-62页 |
附录三 不同参数下特征点匹配的数量平均情况 | 第62-65页 |
参考文献 | 第65-69页 |
致谢 | 第69页 |