摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第10-18页 |
1.1 研究背景 | 第10-11页 |
1.2 彩色视频构建技术的国内外研究现状 | 第11-15页 |
1.2.1 固定区域视频监控成像技术的研究现状 | 第11-13页 |
1.2.2 多波段彩色化成像技术的研究现状 | 第13-15页 |
1.3 本文研究的主要内容 | 第15-18页 |
第2章 固定区域夜雾天况彩色视频构建系统 | 第18-42页 |
2.1 系统原理 | 第18-19页 |
2.2 系统组成 | 第19-25页 |
2.2.1 系统整体框图 | 第19页 |
2.2.2 成像传感器阵列 | 第19-22页 |
2.2.3 视频图像采集与处理平台 | 第22-25页 |
2.3 系统软件结构 | 第25-31页 |
2.3.1 系统软件开发环境 | 第25-26页 |
2.3.2 系统软件整体框架 | 第26-27页 |
2.3.3 系统图像处理流程说明 | 第27-31页 |
2.4 系统图像预处理研究 | 第31-42页 |
2.4.1 图像滤波 | 第32-36页 |
2.4.2 图像锐化 | 第36-38页 |
2.4.3 图像增强 | 第38-42页 |
第3章 红外前景目标检测算法的研究 | 第42-72页 |
3.1 引言 | 第42页 |
3.2 运动目标检测的基本方法 | 第42-49页 |
3.2.1 光流法 | 第43-44页 |
3.2.2 帧间差分法 | 第44-46页 |
3.2.3 背景差分法 | 第46-49页 |
3.3 背景模型的建立和更新算法 | 第49-57页 |
3.3.1 统计平均法 | 第50页 |
3.3.2 中值法 | 第50-52页 |
3.3.3 单高斯建模方法 | 第52-53页 |
3.3.4 混合高斯建模方法 | 第53-57页 |
3.4 运动目标检测算法比较与分析 | 第57-59页 |
3.5 本文红外前景目标检测方法 | 第59-72页 |
3.5.1 红外运动目标检测方法 | 第59-64页 |
3.5.2 红外静止目标检测方法 | 第64-67页 |
3.5.3 阈值选取方法 | 第67-68页 |
3.5.4 形态学后期处理方法 | 第68-72页 |
第4章 红外目标与可见光场景的融合算法研究 | 第72-92页 |
4.1 引言 | 第72页 |
4.2 多源传感器图像融合概述 | 第72-76页 |
4.2.1 图像融合简介 | 第73-74页 |
4.2.2 图像融合的步骤 | 第74-76页 |
4.3 红外图像与可见光图像的配准研究 | 第76-83页 |
4.3.1 图像配准简介 | 第77页 |
4.3.2 空间变换模型 | 第77-79页 |
4.3.3 图像配准方法分类 | 第79-81页 |
4.3.4 本文的配准方法 | 第81-83页 |
4.4 红外图像与可见光图像的融合研究 | 第83-92页 |
4.4.1 常用的多源图像融合方法 | 第83-87页 |
4.4.2 本文红外目标与可见光背景图像的融合方法 | 第87-89页 |
4.4.3 融合效果和分析 | 第89-92页 |
第5章 系统测试及实现效果 | 第92-100页 |
5.1 系统调试方案 | 第92-93页 |
5.2 系统具体实现 | 第93-96页 |
5.3 系统测试效果 | 第96-100页 |
结论 | 第100-102页 |
参考文献 | 第102-106页 |
攻读学位期间公开发表论文 | 第106-108页 |
致谢 | 第108-110页 |
作者简介 | 第110页 |