基于时空不相似度的视频显著性模型研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第9-13页 |
1.1 研究背景和意义 | 第9-10页 |
1.2 研究历史和现状 | 第10-11页 |
1.3 课题来源 | 第11页 |
1.4 本文研究内容及结构 | 第11-13页 |
第2章 视觉注意机制的模型和应用 | 第13-23页 |
2.1 视觉注意机制的模型 | 第13-19页 |
2.1.1 自底向上的视觉注意机制 | 第15-17页 |
2.1.2 自顶向下的视觉注意机制 | 第17-19页 |
2.2 图像显著性与视频显著性的联系与区别 | 第19页 |
2.3 视频显著性的建模 | 第19-21页 |
2.4 视觉注意模型的应用 | 第21页 |
2.5 本章小结 | 第21-23页 |
第3章 联合时域和空域信息的视频显著性模型 | 第23-41页 |
3.1 注意机制建模中的框架 | 第23-24页 |
3.2 视觉注意模型描述 | 第24-32页 |
3.2.1 图像块提取与特征表示 | 第25-26页 |
3.2.2 基于 PCA 的特征向量降维 | 第26-27页 |
3.2.3 空间距离加权的不相似度计算 | 第27-28页 |
3.2.4 中央偏好的施加 | 第28-29页 |
3.2.5 运动特征提取 | 第29-32页 |
3.2.6 时空显著性的计算 | 第32页 |
3.3 实验结果 | 第32-38页 |
3.3.1 实验说明 | 第33-34页 |
3.3.2 在视频库 ORIG-M 上的测试结果 | 第34页 |
3.3.3 在视频库 ORIG-N 上的测试结果 | 第34-35页 |
3.3.4 在视频库 MTV 上的测试结果 | 第35-36页 |
3.3.5 参数讨论以及中央偏置的有效性 | 第36-38页 |
3.4 本章小结 | 第38-41页 |
第4章 基于稀疏表示的视频显著性方法 | 第41-53页 |
4.1 稀疏表示的基本介绍 | 第41-42页 |
4.2 基于字典学习的视频显著性检测 | 第42-50页 |
4.2.1 训练字典 | 第43-49页 |
4.2.2 图像块的稀疏表示 | 第49-50页 |
4.3 实验结果 | 第50-51页 |
4.4 本章小结 | 第51-53页 |
结论 | 第53-55页 |
参考文献 | 第55-61页 |
攻读硕士学位期间发表的学术论文 | 第61-63页 |
致谢 | 第63页 |