摘要 | 第4-6页 |
Abstract | 第6-7页 |
引言 | 第11-12页 |
1 绪论 | 第12-20页 |
1.1 选题背景与研究意义 | 第12-15页 |
1.2 国内外研究现状 | 第15-17页 |
1.2.1 多视点深度视频编码研究现状 | 第15-16页 |
1.2.2 新一代高效视频编码标准 | 第16页 |
1.2.3 多视点深度视频预处理研究现状 | 第16-17页 |
1.3 本文的研究内容和创新点 | 第17-20页 |
2 多视点视频系统 | 第20-32页 |
2.1 多视点视频信号的采集 | 第20-26页 |
2.1.1 多视点彩色视频信号的采集 | 第20-23页 |
2.1.2 多视点深度视频信号的采集 | 第23-26页 |
2.2 多视点视频编码技术 | 第26-27页 |
2.3 基于深度的虚拟视点绘制技术 | 第27-29页 |
2.4 多视点显示技术 | 第29-31页 |
2.4.1 眼镜式立体显示 | 第29-30页 |
2.4.2 裸眼式立体显示 | 第30-31页 |
2.5 本章小结 | 第31-32页 |
3 基于自适应窗口的深度视频空域预处理方法研究 | 第32-46页 |
3.1 深度视频空域一致性分析 | 第32-33页 |
3.2 基于自适应窗口的深度视频空域预处理方法 | 第33-41页 |
3.2.1 不连续区域检测 | 第34-35页 |
3.2.2 前背景区域分割 | 第35-36页 |
3.2.3 深度视频边界提取 | 第36-38页 |
3.2.4 不连续区域平滑处理 | 第38-39页 |
3.2.5 自适应窗口平滑 | 第39-41页 |
3.3 实验结果及分析 | 第41-45页 |
3.3.1 编码性能对比 | 第41-43页 |
3.3.2 虚拟视点客观质量对比 | 第43-44页 |
3.3.3 虚拟视点主观质量对比 | 第44-45页 |
3.4 本章小结 | 第45-46页 |
4 深度视频时空域联合增强方法研究 | 第46-66页 |
4.1 深度视频时空相关性分析 | 第46-47页 |
4.2 深度视频时空联合增强方法 | 第47-48页 |
4.3 JNDD 模型的建立 | 第48-51页 |
4.3.1 深度失真对虚拟视点绘制的影响 | 第48-49页 |
4.3.2 JNDD 模型的建立 | 第49-51页 |
4.4 深度视频空域相关性增强 | 第51-54页 |
4.4.1 深度分割 | 第51-53页 |
4.4.2 基于 JNDD 的深度视频空域滤波 | 第53-54页 |
4.5 深度视频时域相关性增强 | 第54-57页 |
4.5.1 时空域变换 | 第55页 |
4.5.2 时域增强 | 第55-57页 |
4.6 实验结果及分析 | 第57-65页 |
4.6.1 算法复杂度分析 | 第58页 |
4.6.2 编码性能对比 | 第58-60页 |
4.6.3 虚拟视点客观质量对比 | 第60-63页 |
4.6.4 虚拟视点主观质量对比 | 第63-65页 |
4.7 本章小结 | 第65-66页 |
5 联合预处理的深度视频快速编码方法研究 | 第66-81页 |
5.1 深度视频掩膜提取 | 第67-70页 |
5.1.1 不连续区域检测 | 第67页 |
5.1.2 边界提取 | 第67-69页 |
5.1.3 运动区域提取 | 第69-70页 |
5.2 深度视频空域增强 | 第70页 |
5.3 深度视频时域增强 | 第70-71页 |
5.4 深度视频快速编码 | 第71-73页 |
5.5 实验结果及分析 | 第73-79页 |
5.5.1 深度视频预处理方法性能测试 | 第73-75页 |
5.5.2 联合预处理的深度视频快速算法编码性能测试 | 第75-77页 |
5.5.3 联合预处理的深度视频快速算法虚拟视点绘制性能测试 | 第77-79页 |
5.6 本章小结 | 第79-81页 |
6 总结与展望 | 第81-83页 |
6.1 本文工作总结 | 第81页 |
6.2 未来研究展望 | 第81-83页 |
参考文献 | 第83-90页 |
附录A 多视点视频测试序列 | 第90-92页 |
在学研究成果 | 第92-93页 |
致谢 | 第93页 |