致谢 | 第5-6页 |
摘要 | 第6-7页 |
ABSTRACT | 第7-8页 |
1 绪论 | 第12-24页 |
1.1 课题的背景和意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-21页 |
1.2.1 国外研究现状 | 第13-16页 |
1.2.2 国内研究现状 | 第16-20页 |
1.2.3 存在的问题及发展趋势 | 第20-21页 |
1.3 本文研究的主要内容与章节安排 | 第21-24页 |
2 算法研究方案设计 | 第24-40页 |
2.1 算法总体设计 | 第24-28页 |
2.1.1 需要解决的主要问题 | 第24-26页 |
2.1.2 算法总体方案 | 第26-28页 |
2.2 关键技术的基础理论及方法 | 第28-39页 |
2.2.1 红外与可见光图像特性分析 | 第28-30页 |
2.2.2 图像配准 | 第30-31页 |
2.2.3 多尺度图像融合 | 第31-35页 |
2.2.4 运动目标检测 | 第35-39页 |
2.3 本章小结 | 第39-40页 |
3 基于SURF的改进图像配准算法 | 第40-50页 |
3.1 配准算法概述 | 第40-41页 |
3.2 SURF初配准 | 第41-44页 |
3.2.1 SURF特征点提取 | 第41-42页 |
3.2.2 SURF特征点描述 | 第42-43页 |
3.2.3 初始匹配点对生成 | 第43-44页 |
3.3 误匹配点对剔除 | 第44-47页 |
3.3.1 几何约束条件筛选匹配点对 | 第44页 |
3.3.2 基于相似点累加器的相似三角形匹配方法 | 第44-46页 |
3.3.3 RANSAC精匹配 | 第46-47页 |
3.4 基于视频序列累积匹配点的变换模型求解 | 第47-48页 |
3.5 配准结果分析 | 第48页 |
3.6 本章小结 | 第48-50页 |
4 基于TV模型和局部能量的CONTOURLET变换图像融合算法 | 第50-70页 |
4.1 基本原理 | 第50-53页 |
4.1.1 TV模型 | 第50-51页 |
4.1.2 Contourlet变换 | 第51-53页 |
4.2 基于TV和CONTOURLET变换的图像融合算法设计 | 第53-57页 |
4.2.1 融合总体框架 | 第53页 |
4.2.2 低频子带融合规则 | 第53-56页 |
4.2.3 高频子带融合规则 | 第56-57页 |
4.3 图像融合质量评价 | 第57-59页 |
4.3.1 单幅图像评价指标 | 第57-58页 |
4.3.2 融合图像评价指标 | 第58-59页 |
4.4 图像融合结果分析 | 第59-68页 |
4.4.1 源图像和多种融合图像质量比较 | 第59-63页 |
4.4.2 融合算法稳定性验证 | 第63-68页 |
4.5 本章小结 | 第68-70页 |
5 基于前景-背景区分因子的运动目标融合检测算法 | 第70-86页 |
5.1 帧差法和背景差分结合的运动目标检测 | 第70-74页 |
5.1.1 运动目标检测算法 | 第71-72页 |
5.1.2 运动目标检测结果及分析 | 第72-74页 |
5.2 融合检测算法设计 | 第74-79页 |
5.2.1 融合检测算法概述 | 第74-76页 |
5.2.2 前景-背景区分因子 | 第76-78页 |
5.2.3 目标关联与融合检测 | 第78-79页 |
5.3 融合检测结果分析 | 第79-84页 |
5.3.1 白天决策级融合检测结果分析 | 第79-81页 |
5.3.2 夜晚决策级融合检测结果分析 | 第81页 |
5.3.3 源视频检测和融合检测结果比较 | 第81-84页 |
5.4 本章小结 | 第84-86页 |
6 总结与展望 | 第86-90页 |
6.1 总结 | 第86-87页 |
6.2 展望 | 第87-90页 |
参考文献 | 第90-94页 |
作者简历及攻读硕士学位期间取得的研究成果 | 第94-98页 |
学位论文数据集 | 第98页 |