摘要 | 第4-5页 |
Abstract | 第5-6页 |
目录 | 第7-10页 |
图目录 | 第10-12页 |
表目录 | 第12-13页 |
第一章 绪论 | 第13-23页 |
1.1 研究背景与意义 | 第13-14页 |
1.2 视频拷贝检测技术简介 | 第14-17页 |
1.2.1 拷贝视频的概念 | 第14-15页 |
1.2.2 视频拷贝的检测原理 | 第15-16页 |
1.2.3 检测算法的性能评价 | 第16-17页 |
1.3 研究现状和主要问题 | 第17-20页 |
1.3.1 视频拷贝检测的研究现状 | 第17-19页 |
1.3.2 视频拷贝检测的主要问题 | 第19-20页 |
1.4 论文的组织结构 | 第20-23页 |
第二章 视频拷贝检测的关键技术 | 第23-33页 |
2.1 关键帧提取 | 第23-24页 |
2.1.1 基于镜头分割的关键帧提取 | 第23页 |
2.1.2 基于固定速率的关键帧提取 | 第23-24页 |
2.2 特征提取 | 第24-27页 |
2.2.1 OM 特征 | 第24页 |
2.2.2 SURF 特征 | 第24-27页 |
2.3 特征匹配 | 第27-30页 |
2.3.1 相似性度量 | 第27-28页 |
2.3.2 特征索引 | 第28-30页 |
2.4 本章小结 | 第30-33页 |
第三章 基于核心区域 OM 特征和转换距离的视频拷贝检测方法 | 第33-43页 |
3.1 问题分析和解决思路 | 第33-34页 |
3.2 核心区域 OM 特征的提取 | 第34-37页 |
3.2.1 真实网络中拷贝视频的特点分析 | 第34-35页 |
3.2.2 基于异步策略的关键帧提取 | 第35-36页 |
3.2.3 基于核心区域的 OM 特征提取 | 第36-37页 |
3.3 基于转换距离的特征匹配 | 第37-40页 |
3.3.1 转换距离的定义与计算 | 第37-38页 |
3.3.2 基于转换距离的帧匹配 | 第38页 |
3.3.3 基于最长匹配子序列的帧融合 | 第38-40页 |
3.4 实验分析 | 第40-42页 |
3.4.1 实验数据 | 第40页 |
3.4.2 实验参数 | 第40-41页 |
3.4.3 实验结果及分析 | 第41-42页 |
3.5 本章小结 | 第42-43页 |
第四章 基于多视觉词典模型和 E2LSH 的视频拷贝检测方法 | 第43-57页 |
4.1 问题分析和解决思路 | 第43-44页 |
4.2 基于随机分组和 AP 算法的多视觉词典模型 | 第44-49页 |
4.2.1 AP 聚类算法在视觉词典模型中的应用分析 | 第44-45页 |
4.2.2 SURF 特征集合的预处理 | 第45-46页 |
4.2.3 基于 AP 算法和随机分组的多视觉词典建立 | 第46-47页 |
4.2.4 基于比值法的特征映射 | 第47-48页 |
4.2.5 多视觉词典模型的性能分析 | 第48-49页 |
4.3 基于 E2LSH 和时序一致性的特征匹配 | 第49-52页 |
4.3.1 基于 E2LSH 的帧匹配 | 第49-50页 |
4.3.2 基于时序一致性的帧融合 | 第50-52页 |
4.4 实验分析 | 第52-55页 |
4.4.1 实验数据集 | 第52页 |
4.4.2 多视觉词典模型的实验分析 | 第52-53页 |
4.4.3 基于多视觉词典模型的视频拷贝检测方法的实验分析 | 第53-55页 |
4.5 本章小结 | 第55-57页 |
第五章 基于多特征融合的视频拷贝检测系统 | 第57-63页 |
5.1 问题分析和研究思路 | 第57页 |
5.2 基于多特征融合的视频拷贝检测系统架构设计 | 第57-61页 |
5.2.1 级联式设计 | 第57-58页 |
5.2.2 疑似视频的定位与检测 | 第58-60页 |
5.2.3 多特征融合的视频拷贝检测系统架构设计 | 第60-61页 |
5.3 实验分析 | 第61-62页 |
5.4 本章小结 | 第62-63页 |
结束语 | 第63-65页 |
致谢 | 第65-67页 |
参考文献 | 第67-73页 |
作者简历及攻读硕士期间完成的主要工作 | 第73页 |