摘要 | 第4-6页 |
ABSTRACT | 第6-7页 |
1 绪论 | 第11-17页 |
1.1 研究背景及意义 | 第11-12页 |
1.1.1 红外场景特征识别的研究意义 | 第11-12页 |
1.1.2 红外大视场三维重建的研究意义 | 第12页 |
1.2 国内外研究现状 | 第12-15页 |
1.2.1 红外图像场景识别研究现状 | 第12-13页 |
1.2.2 红外图像拼接研究现状 | 第13-14页 |
1.2.3 红外图像三维重建研究现状 | 第14-15页 |
1.3 本文主要研究工作 | 第15-17页 |
2 红外图像场景特征识别与拼接的基本原理方法 | 第17-26页 |
2.1 引言 | 第17页 |
2.2 红外场景特征识别的基本原理方法 | 第17-19页 |
2.2.1 基于特征提取及随机森林分类算法的场景识别方法 | 第17-18页 |
2.2.2 基于标签转移的场景识别算法 | 第18-19页 |
2.3 红外图像拼接基本原理方法 | 第19-25页 |
2.3.1 图像拼接的概念 | 第19-20页 |
2.3.2 常用坐标系及图像变换模型 | 第20-23页 |
2.3.3 红外图像拼接的基本原理 | 第23-25页 |
2.4 本章小结 | 第25-26页 |
3 基于深度卷积-反卷积神经网络的红外图像场景特征识别算法 | 第26-43页 |
3.1 引言 | 第26-27页 |
3.2 深度卷积-反卷积神经网络结构模型 | 第27-31页 |
3.2.1 卷积神经网络基本结构的介绍 | 第27-28页 |
3.2.2 深度卷积-反卷积神经网络模型 | 第28-29页 |
3.2.3 卷积层与反卷积层 | 第29-30页 |
3.2.4 数据增强和网络结构优化 | 第30-31页 |
3.3 红外场景特征识别算法 | 第31-35页 |
3.3.1 红外场景特征识别 | 第33页 |
3.3.2 超像素分割算法 | 第33-35页 |
3.4 实验 | 第35-41页 |
3.4.1 运行环境 | 第36页 |
3.4.2 实验评价指标 | 第36-37页 |
3.4.3 实验结果与分析 | 第37-41页 |
3.5 本章小结 | 第41-43页 |
4 基于点特征的红外大视场拼接算法 | 第43-58页 |
4.1 引言 | 第43-44页 |
4.2 红外图像特征提取 | 第44-50页 |
4.2.1 SIFT特征检测与描述 | 第44-48页 |
4.2.2 相位相关法的位移量预估 | 第48-50页 |
4.3 红外图像匹配的改进算法 | 第50-51页 |
4.4 红外图像合成与拼接 | 第51-55页 |
4.4.1 基于多尺度的图像融合算法 | 第51-52页 |
4.4.2 红外图像大视场拼接 | 第52-55页 |
4.5 实验结果与分析 | 第55-57页 |
4.6 本章小结 | 第57-58页 |
5 红外图像大视场三维重建的实现 | 第58-63页 |
5.1 引言 | 第58页 |
5.2 红外图像三维重建原理及方法 | 第58-60页 |
5.2.1 超像素分割与特征提取 | 第58-59页 |
5.2.2 面板参数马尔可夫模型 | 第59-60页 |
5.3 红外图像大视场三维重建 | 第60-62页 |
5.3.1 实验步骤 | 第61页 |
5.3.2 实验结果与分析 | 第61-62页 |
5.4 本章小结 | 第62-63页 |
6 总结与展望 | 第63-65页 |
6.1 全文总结 | 第63-64页 |
6.2 全文展望 | 第64-65页 |
参考文献 | 第65-70页 |
致谢 | 第70-71页 |
攻读硕士期间研究成果 | 第71-72页 |
附录A 红外图像、对应标签图及本文算法识别图 | 第72-73页 |
附录B 卷积-反卷积神经网络的详细配置表 | 第73-74页 |
附录C 红外大视场图像 | 第74-76页 |
附录D 红外大视场图像的深度图 | 第76-77页 |
附录E 红外大视场图像三维重建结果 | 第77-79页 |