首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

夜间模式下场景特征识别与大视场三维重建的研究

摘要第4-6页
ABSTRACT第6-7页
1 绪论第11-17页
    1.1 研究背景及意义第11-12页
        1.1.1 红外场景特征识别的研究意义第11-12页
        1.1.2 红外大视场三维重建的研究意义第12页
    1.2 国内外研究现状第12-15页
        1.2.1 红外图像场景识别研究现状第12-13页
        1.2.2 红外图像拼接研究现状第13-14页
        1.2.3 红外图像三维重建研究现状第14-15页
    1.3 本文主要研究工作第15-17页
2 红外图像场景特征识别与拼接的基本原理方法第17-26页
    2.1 引言第17页
    2.2 红外场景特征识别的基本原理方法第17-19页
        2.2.1 基于特征提取及随机森林分类算法的场景识别方法第17-18页
        2.2.2 基于标签转移的场景识别算法第18-19页
    2.3 红外图像拼接基本原理方法第19-25页
        2.3.1 图像拼接的概念第19-20页
        2.3.2 常用坐标系及图像变换模型第20-23页
        2.3.3 红外图像拼接的基本原理第23-25页
    2.4 本章小结第25-26页
3 基于深度卷积-反卷积神经网络的红外图像场景特征识别算法第26-43页
    3.1 引言第26-27页
    3.2 深度卷积-反卷积神经网络结构模型第27-31页
        3.2.1 卷积神经网络基本结构的介绍第27-28页
        3.2.2 深度卷积-反卷积神经网络模型第28-29页
        3.2.3 卷积层与反卷积层第29-30页
        3.2.4 数据增强和网络结构优化第30-31页
    3.3 红外场景特征识别算法第31-35页
        3.3.1 红外场景特征识别第33页
        3.3.2 超像素分割算法第33-35页
    3.4 实验第35-41页
        3.4.1 运行环境第36页
        3.4.2 实验评价指标第36-37页
        3.4.3 实验结果与分析第37-41页
    3.5 本章小结第41-43页
4 基于点特征的红外大视场拼接算法第43-58页
    4.1 引言第43-44页
    4.2 红外图像特征提取第44-50页
        4.2.1 SIFT特征检测与描述第44-48页
        4.2.2 相位相关法的位移量预估第48-50页
    4.3 红外图像匹配的改进算法第50-51页
    4.4 红外图像合成与拼接第51-55页
        4.4.1 基于多尺度的图像融合算法第51-52页
        4.4.2 红外图像大视场拼接第52-55页
    4.5 实验结果与分析第55-57页
    4.6 本章小结第57-58页
5 红外图像大视场三维重建的实现第58-63页
    5.1 引言第58页
    5.2 红外图像三维重建原理及方法第58-60页
        5.2.1 超像素分割与特征提取第58-59页
        5.2.2 面板参数马尔可夫模型第59-60页
    5.3 红外图像大视场三维重建第60-62页
        5.3.1 实验步骤第61页
        5.3.2 实验结果与分析第61-62页
    5.4 本章小结第62-63页
6 总结与展望第63-65页
    6.1 全文总结第63-64页
    6.2 全文展望第64-65页
参考文献第65-70页
致谢第70-71页
攻读硕士期间研究成果第71-72页
附录A 红外图像、对应标签图及本文算法识别图第72-73页
附录B 卷积-反卷积神经网络的详细配置表第73-74页
附录C 红外大视场图像第74-76页
附录D 红外大视场图像的深度图第76-77页
附录E 红外大视场图像三维重建结果第77-79页

论文共79页,点击 下载论文
上一篇:潍坊市都市农业发展研究
下一篇:潍坊市寒亭区农业综合开发投资问题研究