| 摘要 | 第5-7页 |
| ABSTRACT | 第7-8页 |
| 符号对照表 | 第12-13页 |
| 缩略语对照表 | 第13-16页 |
| 第一章 绪论 | 第16-22页 |
| 1.1 图像及视频融合的研究意义 | 第16-17页 |
| 1.2 图像及视频融合的发展与研究现状 | 第17-19页 |
| 1.2.1 图像融合的发展与研究现状 | 第17-18页 |
| 1.2.2 视频融合的发展与研究现状 | 第18-19页 |
| 1.3 本文主要工作及内容安排 | 第19-22页 |
| 1.3.1 本文的主要工作及创新 | 第19-20页 |
| 1.3.2 本文的内容安排 | 第20-22页 |
| 第二章 视频融合算法研究 | 第22-32页 |
| 2.1 基于时空能量匹配的视频融合 | 第22-24页 |
| 2.2 基于时空结构张量的视频融合 | 第24-26页 |
| 2.3 基于脉冲耦合神经网络的视频融合 | 第26-28页 |
| 2.4 基于高阶奇异值分解的视频融合 | 第28-30页 |
| 2.5 小结 | 第30-32页 |
| 第三章 矩阵低秩与稀疏分解 | 第32-42页 |
| 3.1 鲁棒主成分分析法 | 第33-38页 |
| 3.1.1 迭代阈值法 | 第33-34页 |
| 3.1.2 近端加速梯度法 | 第34-36页 |
| 3.1.3 增广拉格朗日乘子法 | 第36-38页 |
| 3.2 RPCA在背景建模中的有效性验证 | 第38-40页 |
| 3.2.1 非噪声环境下RPCA的有效性验证 | 第38-39页 |
| 3.2.2 噪声环境下RPCA的有效性验证 | 第39-40页 |
| 3.3 小结 | 第40-42页 |
| 第四章 基于矩阵低秩与稀疏分解的视频融合 | 第42-64页 |
| 4.1 Surfacelet变换 | 第42-47页 |
| 4.2 非噪声环境下的视频融合 | 第47-52页 |
| 4.2.1 非噪声环境下基于RPCA的视频融合 (ST-RPCA) | 第48-50页 |
| 4.2.2 非噪声环境下视频融合算法的有效性验证 | 第50-52页 |
| 4.3 噪声环境下的视频融合 | 第52-62页 |
| 4.3.1 噪声环境下基于RPCA的视频融合算法(ST-RPCA-NOISE) | 第52-54页 |
| 4.3.2 噪声环境下不同融合算法的有效性验证 | 第54-62页 |
| 4.4 小结 | 第62-64页 |
| 第五章 总结与展望 | 第64-66页 |
| 5.1 论文总结 | 第64-65页 |
| 5.2 研究展望 | 第65-66页 |
| 参考文献 | 第66-72页 |
| 致谢 | 第72-74页 |
| 作者简介 | 第74-75页 |