中文摘要 | 第3-4页 |
英文摘要 | 第4-5页 |
1 绪论 | 第8-14页 |
1.1 课题研究背景与研究意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-12页 |
1.2.1 视频特征提取与描述方法研究现状 | 第9-11页 |
1.2.2 视频表示方法研究现状 | 第11-12页 |
1.2.3 相似度计算方法研究现状 | 第12页 |
1.3 本文研究内容与主要创新点 | 第12页 |
1.4 本文的组织架构 | 第12-14页 |
2 视频相似性分析问题描述及相关技术研究 | 第14-26页 |
2.1 视频相似性分析问题描述 | 第14-15页 |
2.1.1 视频相似性和相似度定义 | 第14页 |
2.1.2 视频相似性分析的一般步骤 | 第14-15页 |
2.2 视频特征提取与描述 | 第15-21页 |
2.2.1 目标检测 | 第15-20页 |
2.2.2 目标跟踪 | 第20-21页 |
2.3 视频表示 | 第21-24页 |
2.3.1 基于词袋模型的视频表示方法 | 第21-23页 |
2.3.2 基于C3D模型的视频表示方法 | 第23-24页 |
2.4 相似度计算 | 第24-25页 |
2.4.1 欧氏距离 | 第24-25页 |
2.4.2 曼哈顿距离 | 第25页 |
2.4.3 余弦相似度 | 第25页 |
2.4.4 相对熵/KL散度 | 第25页 |
2.5 本章小结 | 第25-26页 |
3 视频相似性分析 | 第26-40页 |
3.1 总体方法设计 | 第26-27页 |
3.2 视频特征提取与描述 | 第27-36页 |
3.2.1 Faster R-CNN目标检测 | 第27-28页 |
3.2.2 多目标跟踪系统 | 第28-31页 |
3.2.3 特征描述 | 第31-36页 |
3.3 视频目标属性关系图 | 第36-37页 |
3.3.1 顶点属性 | 第37页 |
3.3.2 边属性 | 第37页 |
3.4 基于图匹配的视频相似度计算 | 第37-39页 |
3.4.1 图匹配问题概述 | 第38页 |
3.4.2 图匹配方法 | 第38-39页 |
3.4.3 亲密矩阵计算 | 第39页 |
3.5 本章小结 | 第39-40页 |
4 实验与分析 | 第40-52页 |
4.1 本文使用的数据集 | 第40-41页 |
4.1.1 测试视频数据集 | 第40-41页 |
4.1.2 Microsoft COCO数据集 | 第41页 |
4.2 基于Faster R-CNN目标检测的多目标跟踪实验 | 第41-47页 |
4.2.1 Caffe深度学习框架简介 | 第42页 |
4.2.2 Caffe深度学习框架搭建 | 第42-44页 |
4.2.3 网络和参数设置 | 第44-45页 |
4.2.4 Faster R-CNN卷积神经网络模型训练 | 第45页 |
4.2.5 目标框与特征提取 | 第45页 |
4.2.6 多目标跟踪算法实现 | 第45-46页 |
4.2.7 多目标跟踪效果 | 第46-47页 |
4.3 视频相似性分析实验 | 第47-51页 |
4.3.1 实验环境 | 第47页 |
4.3.2 实验方法 | 第47-48页 |
4.3.3 实验结果及分析 | 第48-51页 |
4.4 本章小结 | 第51-52页 |
5 总结与展望 | 第52-54页 |
5.1 本文主要研究工作及研究成果 | 第52-53页 |
5.2 本文研究的不足及未来研究方向 | 第53-54页 |
致谢 | 第54-55页 |
参考文献 | 第55-60页 |
附录 | 第60页 |
A.作者在攻读硕士学位期间发表的专利 | 第60页 |
B.作者在攻读硕士学位期间参与的科研项目 | 第60页 |