摘要 | 第4-6页 |
abstract | 第6-7页 |
引言 | 第10-12页 |
1 绪论 | 第12-20页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-18页 |
1.2.1 3D视频感知质量增强 | 第13-14页 |
1.2.2 3D视频图像主观质量评价 | 第14-15页 |
1.2.3 3D视频图像客观质量评价 | 第15-18页 |
1.3 论文的主要工作及创新之处 | 第18-19页 |
1.4 论文的结构安排 | 第19-20页 |
2 基本原理 | 第20-26页 |
2.1 深度图信息 | 第20-21页 |
2.2 基于深度的虚拟视点绘制 | 第21-22页 |
2.3 图像稀疏表示 | 第22-23页 |
2.4 3D视频感知质量增强 | 第23-24页 |
2.5 3D视频感知质量评价 | 第24-25页 |
2.6 本章小结 | 第25-26页 |
3 基于联合字典的 3D图像去块效应方法 | 第26-35页 |
3.1 字典训练 | 第27-28页 |
3.2 字典联合 | 第28-29页 |
3.3 去块效应 | 第29-30页 |
3.4 实验结果与分析 | 第30-34页 |
3.5 本章小结 | 第34-35页 |
4 3D视频质量评价方法研究 | 第35-60页 |
4.1 3D视频主观质量评价方法研究 | 第35-39页 |
4.1.1 3D视频序列绘制生成 | 第35-36页 |
4.1.2 3D视频主观感知实验 | 第36-37页 |
4.1.3 实验数据处理与分析 | 第37-39页 |
4.2 3D视频客观质量评价方法研究 | 第39-58页 |
4.2.1 基于DCT系数重组的降参考 3D视频质量评价方法 | 第39-46页 |
4.2.1.1 4D数据集构造 | 第40-41页 |
4.2.1.2 DCT变换与重组 | 第41-43页 |
4.2.1.3 质量评价 | 第43-45页 |
4.2.1.4 实验结果与分析 | 第45-46页 |
4.2.2 面向彩色与深度的高效 3D绘制视频质量预测方法 | 第46-58页 |
4.2.2.1 视点绘制质量评价模型 | 第46-51页 |
4.2.2.2 提出的算法 | 第51-56页 |
4.2.2.3 实验结果与分析 | 第56-58页 |
4.3 本章小结 | 第58-60页 |
5 总结与展望 | 第60-62页 |
5.1 本文工作总结 | 第60-61页 |
5.2 未来研究展望 | 第61-62页 |
参考文献 | 第62-68页 |
在学研究成果 | 第68-69页 |
致谢 | 第69页 |