基于时空不相似度的视频显著性模型研究
| 摘要 | 第4-5页 |
| Abstract | 第5-6页 |
| 第1章 绪论 | 第9-13页 |
| 1.1 研究背景和意义 | 第9-10页 |
| 1.2 研究历史和现状 | 第10-11页 |
| 1.3 课题来源 | 第11页 |
| 1.4 本文研究内容及结构 | 第11-13页 |
| 第2章 视觉注意机制的模型和应用 | 第13-23页 |
| 2.1 视觉注意机制的模型 | 第13-19页 |
| 2.1.1 自底向上的视觉注意机制 | 第15-17页 |
| 2.1.2 自顶向下的视觉注意机制 | 第17-19页 |
| 2.2 图像显著性与视频显著性的联系与区别 | 第19页 |
| 2.3 视频显著性的建模 | 第19-21页 |
| 2.4 视觉注意模型的应用 | 第21页 |
| 2.5 本章小结 | 第21-23页 |
| 第3章 联合时域和空域信息的视频显著性模型 | 第23-41页 |
| 3.1 注意机制建模中的框架 | 第23-24页 |
| 3.2 视觉注意模型描述 | 第24-32页 |
| 3.2.1 图像块提取与特征表示 | 第25-26页 |
| 3.2.2 基于 PCA 的特征向量降维 | 第26-27页 |
| 3.2.3 空间距离加权的不相似度计算 | 第27-28页 |
| 3.2.4 中央偏好的施加 | 第28-29页 |
| 3.2.5 运动特征提取 | 第29-32页 |
| 3.2.6 时空显著性的计算 | 第32页 |
| 3.3 实验结果 | 第32-38页 |
| 3.3.1 实验说明 | 第33-34页 |
| 3.3.2 在视频库 ORIG-M 上的测试结果 | 第34页 |
| 3.3.3 在视频库 ORIG-N 上的测试结果 | 第34-35页 |
| 3.3.4 在视频库 MTV 上的测试结果 | 第35-36页 |
| 3.3.5 参数讨论以及中央偏置的有效性 | 第36-38页 |
| 3.4 本章小结 | 第38-41页 |
| 第4章 基于稀疏表示的视频显著性方法 | 第41-53页 |
| 4.1 稀疏表示的基本介绍 | 第41-42页 |
| 4.2 基于字典学习的视频显著性检测 | 第42-50页 |
| 4.2.1 训练字典 | 第43-49页 |
| 4.2.2 图像块的稀疏表示 | 第49-50页 |
| 4.3 实验结果 | 第50-51页 |
| 4.4 本章小结 | 第51-53页 |
| 结论 | 第53-55页 |
| 参考文献 | 第55-61页 |
| 攻读硕士学位期间发表的学术论文 | 第61-63页 |
| 致谢 | 第63页 |