| 摘要 | 第5-7页 |
| abstract | 第7-8页 |
| 第1章 绪论 | 第11-19页 |
| 1.1 研究背景和意义 | 第11-13页 |
| 1.2 国内外研究现状 | 第13-16页 |
| 1.2.1 深度图像裂缝问题 | 第13-14页 |
| 1.2.2 深度图像边界不对齐问题 | 第14-15页 |
| 1.2.3 较大区域深度数据缺失问题 | 第15-16页 |
| 1.3 论文的创新点及组织结构 | 第16-19页 |
| 1.3.1 本文的创新点 | 第16-18页 |
| 1.3.2 本文的组织结构 | 第18-19页 |
| 第2章 深度数据获取技术与分析 | 第19-32页 |
| 2.1 深度数据获取技术 | 第19-21页 |
| 2.1.1 双目立体视觉技术 | 第19-20页 |
| 2.1.2 光编码技术(Light Coding) | 第20-21页 |
| 2.1.3 飞行时间技术(Time Of Light,TOF) | 第21页 |
| 2.2 基于Kinect深度数据获取 | 第21-26页 |
| 2.3 深度数据误差及其产生原因 | 第26-32页 |
| 2.3.1 物体边缘裂缝问题 | 第27-28页 |
| 2.3.2 深度图像物体边缘不对齐问题 | 第28-30页 |
| 2.3.3 较大区域深度数据缺失问题 | 第30-32页 |
| 第3章 深度图像裂缝修复与边缘对齐 | 第32-48页 |
| 3.1 迭代自适应中值滤波 | 第32-36页 |
| 3.2 深度数据分层校正算法 | 第36-47页 |
| 3.2.1 深度图像和彩色图像的配准 | 第38-39页 |
| 3.2.2 深度图像的预处理 | 第39-40页 |
| 3.2.3 深度图像分层校正 | 第40-44页 |
| 3.2.4 实验结果与分析 | 第44-47页 |
| 3.3 本章小结 | 第47-48页 |
| 第4章 较大区域深度数据缺失修复 | 第48-66页 |
| 4.1 自适应深度数据修复算法 | 第48-56页 |
| 4.1.1 深度数据缺失区域分类 | 第50页 |
| 4.1.2 平滑数据缺失区域填充 | 第50-52页 |
| 4.1.3 非平滑数据缺失区域填充 | 第52-56页 |
| 4.2 实验结果及分析比较 | 第56-65页 |
| 4.2.1 基于自获取实验数据的结果分析 | 第56-62页 |
| 4.2.2 基于标准数据集的结果分析 | 第62-65页 |
| 4.3 本章小结 | 第65-66页 |
| 第5章 总结和展望 | 第66-68页 |
| 5.1 本文工作总结 | 第66-67页 |
| 5.2 未来工作展望 | 第67-68页 |
| 参考文献 | 第68-73页 |
| 攻读学位期间参与的研究项目 | 第73-74页 |
| 致谢 | 第74页 |