基于双目感知的立体视频质量客观评价方法
摘要 | 第3-4页 |
abstract | 第4页 |
第1章 绪论 | 第7-15页 |
1.1 课题的研究背景及意义 | 第7-9页 |
1.2 国内外现状分析 | 第9-13页 |
1.2.1 立体视频质量主观评价方法 | 第9-11页 |
1.2.2 立体视频质量客观评价方法 | 第11-13页 |
1.3 本文主要内容和结构安排 | 第13-15页 |
第2章 人类视觉特性 | 第15-25页 |
2.1 人类视觉系统生理学结构 | 第15-17页 |
2.2 人类视觉系统的基本特性 | 第17-21页 |
2.2.1 视觉关注度 | 第17-18页 |
2.2.2 色彩空间 | 第18-19页 |
2.2.3 亮度特性 | 第19-20页 |
2.2.4 运动感知特性 | 第20-21页 |
2.3 人眼立体视觉 | 第21-24页 |
2.3.1 双目视差和深度感知 | 第21-23页 |
2.3.2 立体视觉的舒适度 | 第23-24页 |
2.4 本章小结 | 第24-25页 |
第3章 立体图像质量评价和立体匹配 | 第25-37页 |
3.1 立体图像质量评价模型 | 第25-34页 |
3.1.1 二维特征提取 | 第27-29页 |
3.1.2 三维特征提取 | 第29-31页 |
3.1.3 实验结果与分析 | 第31-34页 |
3.2 基于光流场的立体匹配算法 | 第34-36页 |
3.2.1 算法框架 | 第34-36页 |
3.2.2 实验结果与分析 | 第36页 |
3.3 本章小结 | 第36-37页 |
第4章 立体视频质量主观评价 | 第37-49页 |
4.1 前期准备工作 | 第37-41页 |
4.1.1 立体视频的拍摄 | 第37-38页 |
4.1.2 立体视频的显示 | 第38-41页 |
4.2 立体视频库的建立 | 第41-44页 |
4.2.1 原始立体视频的选取 | 第41-42页 |
4.2.2 失真视频的构建 | 第42-44页 |
4.3 主观实验流程 | 第44-46页 |
4.3.1 测试条件 | 第44页 |
4.3.2 被测试者的选定标准 | 第44-45页 |
4.3.3 测试流程 | 第45-46页 |
4.4 实验结果分析 | 第46-47页 |
4.5 本章小结 | 第47-49页 |
第5章 立体视频质量客观评价 | 第49-61页 |
5.1 基于空域视图的立体视频质量评价 | 第50-53页 |
5.2 基于时域视图的立体视频质量评价 | 第53-57页 |
5.3 基于时空交互域视图的立体视频质量评价 | 第57-58页 |
5.4 基于多视图特征学习的立体视频质量评价 | 第58页 |
5.5 本章小结 | 第58-61页 |
第6章 实验结果与分析 | 第61-71页 |
6.1 立体视频质量评价数据库 | 第61-62页 |
6.2 对比算法 | 第62-63页 |
6.3 参数的优化 | 第63-64页 |
6.4 具体实验结果与分析 | 第64-69页 |
6.4.1 整体性能实验结果 | 第64-68页 |
6.4.2 单一视图在质量评价中扮演的角色 | 第68-69页 |
6.5 本章小结 | 第69-71页 |
第7章 总结与展望 | 第71-73页 |
7.1 总结 | 第71-72页 |
7.2 展望 | 第72-73页 |
参考文献 | 第73-77页 |
发表论文和参加科研情况说明 | 第77-79页 |
致谢 | 第79页 |