摘要 | 第8-10页 |
ABSTRACT | 第10-12页 |
第一章 绪论 | 第16-32页 |
1.1 课题研究背景及意义 | 第16-19页 |
1.2 国内外研究现状及存在问题 | 第19-29页 |
1.2.1 视频质量评价专家组(VQEG)及其它相关机构 | 第20-21页 |
1.2.2 主观评价研究进展 | 第21-24页 |
1.2.3 客观评价研究进展 | 第24-29页 |
1.2.4 存在的问题及本文的研究思路 | 第29页 |
1.3 本论文的主要创新工作和内容编排 | 第29-32页 |
第二章 立体视频评价的基本理论和相关问题 | 第32-43页 |
2.1 立体视频基础理论 | 第32-34页 |
2.2 人类视觉系统(HVS) | 第34-36页 |
2.3 立体视频处理过程中的主要失真 | 第36-37页 |
2.4 MVD中深度对合成视点的影响 | 第37-40页 |
2.4.1 基于MVD的多视点视频质量评价各环节的关系 | 第37-38页 |
2.4.2 MVD中深度图质量对合成视点的影响 | 第38-40页 |
2.5 视频质量客观评价的性能指标与分析方法 | 第40-42页 |
2.6 本章小结 | 第42-43页 |
第三章 双目立体视频最小可辨失真模型及其在质量评价中的应用 | 第43-56页 |
3.1 引言 | 第43-44页 |
3.2 双目最小可辨失真(BJND)模型 | 第44-53页 |
3.2.1 双眼亮度关系模型 | 第46页 |
3.2.2 基于背景亮度、纹理掩盖、帧间掩盖效应的立体视频JND模型 | 第46-50页 |
3.2.3 基于空间-时间对比灵敏度(ST-CSF)的可视阈值 | 第50-53页 |
3.2.4 双目最小可辨失真模型(BJND) | 第53页 |
3.3 应用于立体视频的质量评价 | 第53-54页 |
3.4 实验结果与分析 | 第54-55页 |
3.5 本章小结 | 第55-56页 |
第四章 全参考立体视频质量评价方法 | 第56-91页 |
4.1 引言 | 第56页 |
4.2 主观实验 | 第56-58页 |
4.3 结合视间差值图与 2D评价方法的多视点视频质量评价方法 | 第58-71页 |
4.3.1 2D视频质量评价方法 | 第59-62页 |
4.3.2 评价方法的流程和主要步骤 | 第62-63页 |
4.3.3 实验与分析 | 第63-71页 |
4.4 基于视觉关注度的立体图像质量评价 | 第71-82页 |
4.4.1 视觉关注度的提取 | 第73-74页 |
4.4.2 基于视觉关注度的立体图像质量评价 | 第74-78页 |
4.4.3 实验结果与分析 | 第78-82页 |
4.5 基于边缘差异的虚拟视图像质量评价方法 | 第82-90页 |
4.5.1 合成虚拟视的过程及失真原因 | 第82-83页 |
4.5.2 边缘差异评价方法 | 第83-87页 |
4.5.3 实验结果及分析 | 第87-90页 |
4.6 本章小结 | 第90-91页 |
第五章 无参考立体视频质量评价方法 | 第91-101页 |
5.1 引言 | 第91-92页 |
5.2 基于深度合成的无参考虚拟视质量评价 | 第92-100页 |
5.2.1 深度图与相对应的纹理图的边缘相似性比较 | 第94-96页 |
5.2.2 虚拟视的边缘块失真 | 第96-97页 |
5.2.3 实验结果与分析 | 第97-100页 |
5.3 本章小结 | 第100-101页 |
第六章 基于主观评价的刚可察觉深度差异模型及其应用 | 第101-114页 |
6.1 引言 | 第101-102页 |
6.2 基于主观实验建立深度的JNDD模型 | 第102-107页 |
6.2.1 实验方案 | 第103-106页 |
6.2.2 实验分析 | 第106-107页 |
6.3 JNDD模型在深度图优化处理中的应用 | 第107-109页 |
6.4 实验结果与分析 | 第109-113页 |
6.5 本章小结 | 第113-114页 |
第七章 总结与展望 | 第114-117页 |
7.1 论文工作总结 | 第114-115页 |
7.2 展望 | 第115-117页 |
参考文献 | 第117-136页 |
附录 | 第136-138页 |
攻读博士学位期间的成果 | 第138-140页 |
致谢 | 第140-141页 |