基于深度边缘判别模型的深度图空洞修复算法研究
摘要 | 第3-4页 |
ABSTRACT | 第4页 |
1 绪论 | 第8-14页 |
1.1 课题研究意义和背景 | 第8页 |
1.2 国内外研究现状 | 第8-11页 |
1.3 课题研究思路 | 第11-12页 |
1.3.1 边缘提取模块 | 第12页 |
1.3.2 滤波修复模块 | 第12页 |
1.4 论文的研究内容和章节安排 | 第12-14页 |
2 深度图测距技术及修复算法 | 第14-27页 |
2.1 深度测距技术简介 | 第14-16页 |
2.1.1 双目视觉测距技术 | 第14-15页 |
2.1.2 结构光测距技术 | 第15-16页 |
2.1.3 飞行时间测距技术 | 第16页 |
2.2 常见深度传感相机及设备 | 第16-18页 |
2.2.1 TOF相机简介 | 第16-17页 |
2.2.2 Kinect简介 | 第17-18页 |
2.3 深度相机误差来源 | 第18-20页 |
2.3.1 传感器误差 | 第18页 |
2.3.2 测量条件 | 第18-20页 |
2.3.3 物体表面特性 | 第20页 |
2.4 常见深度图像修复算法 | 第20-26页 |
2.4.1 双边滤波器 | 第21-22页 |
2.4.2 联合双边滤波 | 第22-23页 |
2.4.3 联合三边滤波 | 第23-24页 |
2.4.4 基于边缘信息的方向联合滤波算法 | 第24-26页 |
2.5 小结 | 第26-27页 |
3 深度边缘判别模型 | 第27-43页 |
3.1 深度边缘 | 第27-29页 |
3.2 深度边缘判别模型 | 第29-36页 |
3.2.1 模块总流程 | 第29-30页 |
3.2.2 边缘概率提取模型 | 第30-34页 |
3.2.3 边缘候选点选取算法 | 第34-36页 |
3.3 深度边缘点选取 | 第36-37页 |
3.4 实验过程 | 第37-42页 |
3.4.1 卷积神经网络模型 | 第37-40页 |
3.4.2 模块边缘提取效果 | 第40-42页 |
3.5 本章小结 | 第42-43页 |
4 改进的深度图空洞修复算法 | 第43-57页 |
4.1 深度图像滤波修复模块 | 第43-48页 |
4.1.1 图像预处理 | 第44页 |
4.1.2 非空洞区域滤波 | 第44-46页 |
4.1.3 空洞区域修复 | 第46-48页 |
4.2 实验过程 | 第48-56页 |
4.2.1 数据集 | 第48页 |
4.2.2 模拟数据的合理性 | 第48-50页 |
4.2.3 实验效果分析 | 第50-56页 |
4.3 小结 | 第56-57页 |
5 总结 | 第57-58页 |
6 未来工作展望 | 第58-59页 |
致谢 | 第59-60页 |
参考文献 | 第60-63页 |