摘要 | 第3-4页 |
Abstract | 第4-5页 |
第一章 绪论 | 第9-15页 |
1.1 研究背景与意义 | 第9-10页 |
1.2 立体图像技术 | 第10-12页 |
1.2.1 双目视觉原理 | 第10页 |
1.2.2 立体图像的获取 | 第10-11页 |
1.2.3 立体图像显示技术 | 第11-12页 |
1.3 国内外研究现状 | 第12-14页 |
1.3.1 立体图像质量评价研究现状 | 第12-13页 |
1.3.2 深度学习研究现状 | 第13-14页 |
1.4 本文的研究内容及章节安排 | 第14-15页 |
第二章 深度学习 | 第15-24页 |
2.1 深度学习简介 | 第15-16页 |
2.2 神经网络 | 第16-17页 |
2.2.1 神经网络模型 | 第16-17页 |
2.2.2 反向传播算法 | 第17页 |
2.3 深度学习常用模型 | 第17-23页 |
2.3.1 自编码器 | 第17-18页 |
2.3.2 深度信念网络 | 第18-20页 |
2.3.3 卷积神经网络 | 第20-21页 |
2.3.4 循环神经网络 | 第21-22页 |
2.3.5 生成对抗网络 | 第22-23页 |
2.4 深度学习模型的训练方式 | 第23页 |
2.5 本章小结 | 第23-24页 |
第三章 基于深度卷积网络的彩色立体图像质量评价方法 | 第24-37页 |
3.1 深度卷积神经网络 | 第24页 |
3.2 立体图像质量评价的深度CNN结构设计 | 第24-29页 |
3.2.1 网络输入 | 第25-26页 |
3.2.2 卷积层 | 第26页 |
3.2.3 最大池 | 第26页 |
3.2.4 全连接层 | 第26-27页 |
3.2.5 线性校正单元ReLU与dropout | 第27-28页 |
3.2.6 参数细节 | 第28页 |
3.2.7 模型调整与学习 | 第28-29页 |
3.3 Caffe框架简介 | 第29页 |
3.4 实验环境 | 第29-30页 |
3.5 LIVE数据图像库简介 | 第30-31页 |
3.6 实验结果与分析 | 第31-36页 |
3.6.1 LIVE 3D PhaseⅠ实验结果分析 | 第32-34页 |
3.6.2 LIVE 3D PhaseⅡ实验结果分析 | 第34-36页 |
3.6.3 视差图有效性验证 | 第36页 |
3.7 本章小结 | 第36-37页 |
第四章 基于视觉显著性的立体彩色图像质量评价方法 | 第37-48页 |
4.1 视觉显著性 | 第37页 |
4.2 相关工作 | 第37-38页 |
4.3 视觉显著图提取 | 第38-42页 |
4.3.1 独眼图 | 第38-39页 |
4.3.2 颜色显著性 | 第39页 |
4.3.3 中心区域 | 第39-40页 |
4.3.4 带通滤波 | 第40-42页 |
4.4 模型示意图 | 第42页 |
4.5 实验结果与分析 | 第42-47页 |
4.5.1 LIVE 3D PhaseⅠ实验结果分析 | 第42-44页 |
4.5.2 LIVE 3D PhaseⅡ实验结果分析 | 第44-46页 |
4.5.3 视差图与显著图方法分析对比 | 第46-47页 |
4.6 本章小结 | 第47-48页 |
第五章 融合深度感知的立体彩色图像质量评价方法 | 第48-57页 |
5.1 深度显著图 | 第48页 |
5.2 相关工作 | 第48页 |
5.3 融合深度感知的立体图像显著图提取 | 第48-51页 |
5.3.1 深度显著性 | 第49-50页 |
5.3.2 显著融合 | 第50-51页 |
5.4 模型示意图 | 第51-52页 |
5.5 实验结果与分析 | 第52-56页 |
5.5.1 LIVE 3D PhaseⅠ实验结果分析 | 第52-54页 |
5.5.2 LIVE 3D PhaseⅡ实验结果分析 | 第54-55页 |
5.5.3 三章实验结果对比 | 第55-56页 |
5.6 本章小结 | 第56-57页 |
主要结论与展望 | 第57-59页 |
致谢 | 第59-60页 |
参考文献 | 第60-65页 |
附录:作者在攻读硕士学位期间发表的论文 | 第65页 |