摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
符号对照表 | 第12-13页 |
缩略语对照表 | 第13-16页 |
第一章 绪论 | 第16-22页 |
1.1 图像及视频融合的研究意义 | 第16-17页 |
1.2 图像及视频融合的发展与研究现状 | 第17-19页 |
1.2.1 图像融合的发展与研究现状 | 第17-18页 |
1.2.2 视频融合的发展与研究现状 | 第18-19页 |
1.3 本文主要工作及内容安排 | 第19-22页 |
1.3.1 本文的主要工作及创新 | 第19-20页 |
1.3.2 本文的内容安排 | 第20-22页 |
第二章 视频融合算法研究 | 第22-32页 |
2.1 基于时空能量匹配的视频融合 | 第22-24页 |
2.2 基于时空结构张量的视频融合 | 第24-26页 |
2.3 基于脉冲耦合神经网络的视频融合 | 第26-28页 |
2.4 基于高阶奇异值分解的视频融合 | 第28-30页 |
2.5 小结 | 第30-32页 |
第三章 矩阵低秩与稀疏分解 | 第32-42页 |
3.1 鲁棒主成分分析法 | 第33-38页 |
3.1.1 迭代阈值法 | 第33-34页 |
3.1.2 近端加速梯度法 | 第34-36页 |
3.1.3 增广拉格朗日乘子法 | 第36-38页 |
3.2 RPCA在背景建模中的有效性验证 | 第38-40页 |
3.2.1 非噪声环境下RPCA的有效性验证 | 第38-39页 |
3.2.2 噪声环境下RPCA的有效性验证 | 第39-40页 |
3.3 小结 | 第40-42页 |
第四章 基于矩阵低秩与稀疏分解的视频融合 | 第42-64页 |
4.1 Surfacelet变换 | 第42-47页 |
4.2 非噪声环境下的视频融合 | 第47-52页 |
4.2.1 非噪声环境下基于RPCA的视频融合 (ST-RPCA) | 第48-50页 |
4.2.2 非噪声环境下视频融合算法的有效性验证 | 第50-52页 |
4.3 噪声环境下的视频融合 | 第52-62页 |
4.3.1 噪声环境下基于RPCA的视频融合算法(ST-RPCA-NOISE) | 第52-54页 |
4.3.2 噪声环境下不同融合算法的有效性验证 | 第54-62页 |
4.4 小结 | 第62-64页 |
第五章 总结与展望 | 第64-66页 |
5.1 论文总结 | 第64-65页 |
5.2 研究展望 | 第65-66页 |
参考文献 | 第66-72页 |
致谢 | 第72-74页 |
作者简介 | 第74-75页 |