首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于多尺度与卷积神经网络的双目立体视觉研究

摘要第4-5页
Abstract第5-6页
第1章 绪论第9-15页
    1.1 研究背景及意义第9-10页
    1.2 国内外研究现状和存在的问题第10-12页
        1.2.1 立体匹配技术的研究现状第10-11页
        1.2.2 深度恢复及重建技术的研究现状第11页
        1.2.3 存在的问题第11-12页
    1.3 本文的研究内容第12-13页
    1.4 本文的章节安排第13-15页
第2章 预备知识第15-26页
    2.1 双目立体视觉基本原理第15-18页
        2.1.1 相机成像模型及坐标转换关系第15-18页
        2.1.2 双目视差的几何原理第18页
    2.2 双目立体视觉系统第18-23页
        2.2.1 图像获取第19页
        2.2.2 相机标定第19-20页
        2.2.3 图像校正第20-21页
        2.2.4 立体匹配第21-23页
        2.2.5 三维重建第23页
    2.3 常见的立体匹配方法第23-25页
        2.3.1 SGM算法第23-24页
        2.3.2 ADCensus 算法第24-25页
    2.4 本章小结第25-26页
第3章 基于多尺度卷积神经网络的立体匹配方法第26-43页
    3.1 相关原理与立体匹配框架设计第26-34页
        3.1.1 获取图像多尺度信息第26-27页
        3.1.2 卷积神经网络原理第27-31页
        3.1.3 多层神经网络的反向传播算法第31-33页
        3.1.4 网络结构设计第33-34页
        3.1.5 立体匹配流程第34页
    3.2 网络训练阶段第34-36页
        3.2.1 构造训练数据集第34-36页
        3.2.2 网络模型的损失函数第36页
        3.2.3 训练相关参数设置第36页
    3.3 视差计算阶段第36-39页
        3.3.1 计算匹配代价第37-38页
        3.3.2 视差优化第38-39页
    3.4 实验结果与分析第39-41页
        3.4.1 网络训练分析第39页
        3.4.2 视差质量分析第39-41页
    3.5 本章小结第41-43页
第4章 基于双目视差的深度提取及重建第43-50页
    4.1 基于双目视差的重建流程第43-44页
    4.2 深度信息以及三维坐标的获取第44-45页
    4.3 三角网构造原理第45-46页
    4.4 可视化显示与分析第46-49页
    4.5 本章小结第49-50页
第5章 总结与展望第50-52页
    5.1 本文总结第50-51页
    5.2 研究展望第51-52页
致谢第52-53页
参考文献第53-57页
攻读硕士学位期间研究成果第57页

论文共57页,点击 下载论文
上一篇:基于改进粗糙集模型的文本分类方法优化研究
下一篇:基于前景理论的船舶航路选择模型研究