无参考视频质量评价方法研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第9-13页 |
1.1 研究意义与研究背景 | 第9-10页 |
1.2 国内外研究现状 | 第10页 |
1.3 论文内容安排 | 第10-13页 |
1.3.1 研究内容 | 第10-11页 |
1.3.2 结构安排 | 第11-13页 |
第二章 视频质量评价技术基础 | 第13-32页 |
2.1 人眼的生理结构 | 第13-15页 |
2.1.1 眼球与视网膜 | 第13-15页 |
2.1.2 视皮层 | 第15页 |
2.2 人类视觉系统特性 | 第15-22页 |
2.2.1 视觉的心理物理学特性 | 第16-20页 |
2.2.2 视觉的心理特性 | 第20-21页 |
2.2.3 人类视觉系统的应用 | 第21-22页 |
2.3 视频图像质量评价方法综述 | 第22-30页 |
2.3.1 图像质量评价方法 | 第22-27页 |
2.3.2 视频质量评价方法 | 第27-30页 |
2.3.3 视频图像质量评价方法局限性 | 第30页 |
2.4 本章小结 | 第30-32页 |
第三章 基于深度学习的无参考图像质量评价方法 | 第32-49页 |
3.1 自然场景统计与深度学习网络 | 第34-38页 |
3.1.1 自然场景统计 | 第35-36页 |
3.1.2 深度学习网络 | 第36-38页 |
3.2 基于降质类型判断的无参考图像质量评价模型 | 第38-43页 |
3.2.1 自然图像表示 | 第39-40页 |
3.2.2 降质类型预测 | 第40-41页 |
3.2.3 自然图像质量池建立 | 第41-43页 |
3.3 实验仿真结果 | 第43-48页 |
3.3.1 性能评价准则 | 第43-44页 |
3.3.2 实验结果 | 第44-48页 |
3.4 本章小结 | 第48-49页 |
第四章 基于时空特性的无参考视频质量评价方法 | 第49-63页 |
4.1 场景变化检测和关键帧提取 | 第50-51页 |
4.1.1 场景变化检测 | 第50-51页 |
4.1.2 关键帧的提取 | 第51页 |
4.2 基于时空特性的无参考视频质量评价方法模型 | 第51-56页 |
4.2.1 场景检测 | 第52-54页 |
4.2.2 时空特性提取 | 第54-56页 |
4.3 实验仿真结果 | 第56-62页 |
4.3.1 实验仿真步骤 | 第56-57页 |
4.3.2 实验结果 | 第57-62页 |
4.4 本章小结 | 第62-63页 |
第五章 基于感兴趣区域的无参考视频质量评价方法 | 第63-73页 |
5.1 视觉注意模型 | 第63-65页 |
5.2 基于感兴趣区域的无参考视频质量评价模型 | 第65-70页 |
5.2.1 感兴趣区域的检测和整合 | 第65-67页 |
5.2.2 块效应检测 | 第67-69页 |
5.2.3 模糊效应检测 | 第69-70页 |
5.2.4 视频质量指标 | 第70页 |
5.3 实验仿真结果 | 第70-72页 |
5.4 本章小结 | 第72-73页 |
第六章 总结与展望 | 第73-74页 |
6.1 全文总结 | 第73页 |
6.2 未来工作展望 | 第73-74页 |
参考文献 | 第74-78页 |
附录1 攻读硕士学位期间撰写的论文 | 第78-79页 |
致谢 | 第79页 |