深度视频空洞区域修复技术研究
摘要 | 第4-6页 |
abstract | 第6-7页 |
引言 | 第10-11页 |
1 诸论 | 第11-18页 |
1.1 论文背景及研究意义 | 第11-13页 |
1.2 国内外研究现状分析 | 第13-16页 |
1.3 本文研究内容及创新之处 | 第16-17页 |
1.4 本文的结构安排 | 第17-18页 |
2 3D深度信息获取技术 | 第18-25页 |
2.1 3D图像深度信息获取技术 | 第18页 |
2.2 深度相机获取深度图 | 第18-21页 |
2.2.1 基于飞行时间 (TOF)深度相机 | 第18-19页 |
2.2.2 Kinect相机 | 第19-21页 |
2.2.3 其他深度相机系统 | 第21页 |
2.3 深度估计算法获取深度图 | 第21-23页 |
2.4 深度获取技术存在的问题 | 第23-24页 |
2.5 本章小节 | 第24-25页 |
3 基于超像素分割深度视频修复方法 | 第25-38页 |
3.1 深度视频与彩色视频相关性分析 | 第25-26页 |
3.2 基于超像素分割深度视频修复方法 | 第26-32页 |
3.2.1 彩色深度预处理算法 | 第27-28页 |
3.2.2 分割块空洞分类修复算法 | 第28-32页 |
3.3 实验结果及分析 | 第32-36页 |
3.3.1 主观实验结果 | 第32-36页 |
3.3.2 客观实验结果 | 第36页 |
3.4 本章小结 | 第36-38页 |
4 稀疏失真模型深度修复算法 | 第38-53页 |
4.1 深度图像修复算法框架 | 第38-43页 |
4.1.1 稀疏失真模型建立和深度图训练 | 第39-40页 |
4.1.2 联合空间结构滤波 | 第40-42页 |
4.1.3 提取因子判别和深度图像重建 | 第42-43页 |
4.2 实验结果和分析 | 第43-51页 |
4.2.1 去噪方法比较结果 | 第44-45页 |
4.2.2 深度图修复结果 | 第45-49页 |
4.2.3 虚拟视点绘制结果 | 第49-51页 |
4.3 本章小节 | 第51-53页 |
5 静止区域时空相关性深度视频修复方法 | 第53-65页 |
5.1 静止区域时空相关性深度视频修复算法 | 第53-60页 |
5.1.1 运动目标提取算法 | 第54-56页 |
5.1.2 静止区域交叉修复算法 | 第56-58页 |
5.1.3 联合权重滤波算法 | 第58-59页 |
5.1.4 彩色信息引导滤波 | 第59-60页 |
5.2 实验结果及分析 | 第60-64页 |
5.2.1 静止区域修复算法结果 | 第61-62页 |
5.2.2 运动区域修复结果 | 第62-63页 |
5.2.3 最终实验结果 | 第63-64页 |
5.3 本章小节 | 第64-65页 |
6 总结与展望 | 第65-68页 |
6.1 本文工作总结 | 第65-66页 |
6.2 未来的展望 | 第66-68页 |
参考文献 | 第68-74页 |
附录A 深度测试序列 | 第74-76页 |
在学研究成果 | 第76-77页 |
致谢 | 第77-78页 |