首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度学习的立体图像质量评价方法研究

摘要第3-4页
Abstract第4-5页
第一章 绪论第9-15页
    1.1 研究背景与意义第9-10页
    1.2 立体图像技术第10-12页
        1.2.1 双目视觉原理第10页
        1.2.2 立体图像的获取第10-11页
        1.2.3 立体图像显示技术第11-12页
    1.3 国内外研究现状第12-14页
        1.3.1 立体图像质量评价研究现状第12-13页
        1.3.2 深度学习研究现状第13-14页
    1.4 本文的研究内容及章节安排第14-15页
第二章 深度学习第15-24页
    2.1 深度学习简介第15-16页
    2.2 神经网络第16-17页
        2.2.1 神经网络模型第16-17页
        2.2.2 反向传播算法第17页
    2.3 深度学习常用模型第17-23页
        2.3.1 自编码器第17-18页
        2.3.2 深度信念网络第18-20页
        2.3.3 卷积神经网络第20-21页
        2.3.4 循环神经网络第21-22页
        2.3.5 生成对抗网络第22-23页
    2.4 深度学习模型的训练方式第23页
    2.5 本章小结第23-24页
第三章 基于深度卷积网络的彩色立体图像质量评价方法第24-37页
    3.1 深度卷积神经网络第24页
    3.2 立体图像质量评价的深度CNN结构设计第24-29页
        3.2.1 网络输入第25-26页
        3.2.2 卷积层第26页
        3.2.3 最大池第26页
        3.2.4 全连接层第26-27页
        3.2.5 线性校正单元ReLU与dropout第27-28页
        3.2.6 参数细节第28页
        3.2.7 模型调整与学习第28-29页
    3.3 Caffe框架简介第29页
    3.4 实验环境第29-30页
    3.5 LIVE数据图像库简介第30-31页
    3.6 实验结果与分析第31-36页
        3.6.1 LIVE 3D PhaseⅠ实验结果分析第32-34页
        3.6.2 LIVE 3D PhaseⅡ实验结果分析第34-36页
        3.6.3 视差图有效性验证第36页
    3.7 本章小结第36-37页
第四章 基于视觉显著性的立体彩色图像质量评价方法第37-48页
    4.1 视觉显著性第37页
    4.2 相关工作第37-38页
    4.3 视觉显著图提取第38-42页
        4.3.1 独眼图第38-39页
        4.3.2 颜色显著性第39页
        4.3.3 中心区域第39-40页
        4.3.4 带通滤波第40-42页
    4.4 模型示意图第42页
    4.5 实验结果与分析第42-47页
        4.5.1 LIVE 3D PhaseⅠ实验结果分析第42-44页
        4.5.2 LIVE 3D PhaseⅡ实验结果分析第44-46页
        4.5.3 视差图与显著图方法分析对比第46-47页
    4.6 本章小结第47-48页
第五章 融合深度感知的立体彩色图像质量评价方法第48-57页
    5.1 深度显著图第48页
    5.2 相关工作第48页
    5.3 融合深度感知的立体图像显著图提取第48-51页
        5.3.1 深度显著性第49-50页
        5.3.2 显著融合第50-51页
    5.4 模型示意图第51-52页
    5.5 实验结果与分析第52-56页
        5.5.1 LIVE 3D PhaseⅠ实验结果分析第52-54页
        5.5.2 LIVE 3D PhaseⅡ实验结果分析第54-55页
        5.5.3 三章实验结果对比第55-56页
    5.6 本章小结第56-57页
主要结论与展望第57-59页
致谢第59-60页
参考文献第60-65页
附录:作者在攻读硕士学位期间发表的论文第65页

论文共65页,点击 下载论文
上一篇:等级制度下群集运动的研究
下一篇:无监督TSK模糊系统及其应用研究