摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-12页 |
1.1 课题研究的背景及其意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-10页 |
1.3 本文研究内容及研究方法 | 第10-11页 |
1.4 各章节安排 | 第11-12页 |
第2章 KINECT 传感器及深度图像的获取与优化 | 第12-27页 |
2.1 Kinect 传感器 | 第12-13页 |
2.2 Kinect 传感器硬软件系统 | 第13-16页 |
2.2.1 Kinect 传感器的硬件系统 | 第13-14页 |
2.2.2 Kinect 传感器的软件系统 | 第14-15页 |
2.2.3 Kinect 传感器的技术应用 | 第15-16页 |
2.3 深度信息的获取 | 第16-22页 |
2.3.1 Kinect 的深度信息 | 第16-17页 |
2.3.2 深度图像信息获取技术 | 第17-18页 |
2.3.3 Kinect 传感器的获取深度信息的原理 | 第18-22页 |
2.4 Kinect 传感器的深度信息的数据结构 | 第22-23页 |
2.5 深度信息的变换 | 第23-25页 |
2.5.1 二维深度信息到空间三维坐标的转化 | 第23-24页 |
2.5.2 深度信息到 RGB 图像的配准 | 第24-25页 |
2.6 三维点云显示 | 第25-26页 |
2.7 本章小结 | 第26-27页 |
第3章 基于深度图像的点云数据处理 | 第27-42页 |
3.1 点云的概念 | 第27-28页 |
3.2 Kinect 深度图像噪声分析 | 第28-31页 |
3.3 深度图像预处理 | 第31-36页 |
3.3.1 泊松方程去噪 | 第31-32页 |
3.3.2 高斯滤波去噪 | 第32-33页 |
3.3.3 中值滤波去噪 | 第33-34页 |
3.3.4 双边滤波去噪 | 第34-36页 |
3.4 物体点云分割 | 第36-41页 |
3.4.1 阈值分割法 | 第37-39页 |
3.4.2 背景差分法 | 第39-40页 |
3.4.3 深度图像孔洞问题 | 第40-41页 |
3.5 本章小结 | 第41-42页 |
第4章 三维点云图像拼接 | 第42-52页 |
4.1 局部特征点选取 | 第42-43页 |
4.2 SURF 算法 | 第43-47页 |
4.2.1 SURF 算法流程 | 第43页 |
4.2.2 SURF 算法原理 | 第43-46页 |
4.2.3 多视角深度信息提取 | 第46-47页 |
4.2.4 SURF 算法与 SIFT 算法关键技术对比 | 第47页 |
4.3 SURF 算法与传统 SIFT 算法性能比较 | 第47-49页 |
4.4 利用 ICP 对点云图像拼接 | 第49-51页 |
4.5 本章小结 | 第51-52页 |
第5章 基于 Kinect 传感器的三维点云模型实验与分析 | 第52-64页 |
5.1 实验环境和实验设备 | 第52页 |
5.2 三维物体点云模型重建实验 | 第52-55页 |
5.3 三维人体点云模型重建实验 | 第55-63页 |
5.4 实验总结分析 | 第63页 |
5.5 本章小结 | 第63-64页 |
第6章 总结与展望 | 第64-66页 |
6.1 论文总结 | 第64页 |
6.2 进一步研究工作 | 第64-66页 |
致谢 | 第66-67页 |
参考文献 | 第67-71页 |
附录 1 攻读硕士学位期间发表的论文 | 第71-72页 |
附录 2 攻读硕士学位期间参加的科研项目 | 第72-73页 |
详细摘要 | 第73-77页 |