致谢 | 第5-7页 |
摘要 | 第7-9页 |
Abstract | 第9-10页 |
目录 | 第11-13页 |
第一章 绪论 | 第13-35页 |
1.1 选题的背景及意义 | 第13-15页 |
1.2 三维视频系统概述 | 第15-23页 |
1.2.1 基于深度图的绘制技术 | 第15-21页 |
1.2.2 基于DIBR技术的三维视频系统 | 第21-23页 |
1.3 三维视频编码技术 | 第23-32页 |
1.3.1 视频编码基本原理 | 第23-26页 |
1.3.2 三维视频编码研究现状 | 第26-32页 |
1.4 主要研究内容和论文结构 | 第32-35页 |
1.4.1 主要研究内容 | 第32-33页 |
1.4.2 章节安排 | 第33-35页 |
第二章 基于率失真估计的三维视频参考视点选择研究 | 第35-63页 |
2.1 引言 | 第35-37页 |
2.2 参考视点设置对显示视点整体视频质量的影响 | 第37-39页 |
2.3 针对参考视点选择的率失真模型 | 第39-49页 |
2.3.1 率失真模型表述 | 第39-41页 |
2.3.2 压缩失真模型 | 第41-43页 |
2.3.3 合成失真模型 | 第43-46页 |
2.3.4 压缩码率模型 | 第46-48页 |
2.3.5 率失真模型简化 | 第48-49页 |
2.4 基于率失真模型的参考视点选择方法 | 第49-50页 |
2.5 实验及其结果分析 | 第50-61页 |
2.5.1 实验条件 | 第50-52页 |
2.5.2 率失真模型验证及分析 | 第52-55页 |
2.5.3 参考视点选择方法的性能验证及分析 | 第55-59页 |
2.5.4 计算复杂度分析 | 第59-61页 |
2.6 本章小结 | 第61-63页 |
第三章 基于视觉显著性分析的多视点纹理视频编码研究 | 第63-87页 |
3.1 引言 | 第63-66页 |
3.2 视觉显著性分析技术 | 第66页 |
3.3 融合颜色和运动信息的视频显著性滤波器 | 第66-72页 |
3.3.1 超像素分割 | 第67-68页 |
3.3.2 测度计算 | 第68-71页 |
3.3.3 显著性分配 | 第71-72页 |
3.4 基于视觉显著性分析的多视点纹理视频编码方法 | 第72-74页 |
3.5 实验及其结果分析 | 第74-86页 |
3.5.1 融合颜色和运动信息的视频显著性滤波器验证及分析 | 第75-81页 |
3.5.2 基于视觉显著性分析的多视点纹理视频编码效率验证及分析 | 第81-86页 |
3.6 本章小结 | 第86-87页 |
第四章 基于恰可识别视差错误估计的三维视频深度图编码研究 | 第87-109页 |
4.1 引言 | 第87-89页 |
4.2 恰可识别的视差错误模型 | 第89-97页 |
4.2.1 恰可感知失真模型 | 第90-93页 |
4.2.2 恰可识别的视差错误估计 | 第93-97页 |
4.3 基于恰可识别的视差错误估计的深度图编码方法 | 第97-100页 |
4.3.1 基于JNDE的帧内和帧间预测 | 第97-99页 |
4.3.2 基于JNDE的预测残差调整 | 第99-100页 |
4.4 实验及其结果分析 | 第100-107页 |
4.4.1 实验条件 | 第100-101页 |
4.4.2 率失真性能验证及分析 | 第101-104页 |
4.4.3 虚拟合成视点的主观质量对比及分析 | 第104-107页 |
4.5 本章小结 | 第107-109页 |
第五章 结论与展望 | 第109-113页 |
5.1 结论 | 第109-110页 |
5.2 展望 | 第110-113页 |
参考文献 | 第113-125页 |
攻读博士学位期间的主要研究成果 | 第125页 |