摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 引言 | 第8-13页 |
1.1 视频近重复检测的研究背景 | 第8-9页 |
1.2 视频近重复检测的学术意义 | 第9-10页 |
1.3 视频近重复检测的应用意义 | 第10-11页 |
1.4 论文研究内容和创新点 | 第11-12页 |
1.5 论文结构安排 | 第12-13页 |
第2章 视频近重复检索算法综述 | 第13-39页 |
2.1 本章引言 | 第13页 |
2.2 视频检索中的基本概念 | 第13-15页 |
2.2.1 视频的概念 | 第13页 |
2.2.2 场景的概念 | 第13-14页 |
2.2.3 镜头的概念 | 第14页 |
2.2.4 视频帧的概念 | 第14页 |
2.2.5 视频的层次化结构 | 第14-15页 |
2.3 视频镜头分割技术 | 第15-20页 |
2.3.1 基于颜色的镜头分割技术 | 第15-16页 |
2.3.2 基于边缘的镜头分割技术 | 第16-17页 |
2.3.3 基于学习的镜头分割技术 | 第17-20页 |
2.4 视频近重复检测的理论框架 | 第20-21页 |
2.5 视频近重复检测的算法综述 | 第21-38页 |
2.5.1 基于全局特征的算法综述 | 第22页 |
2.5.2 全局特征算法举例:二值亮度排序算法 | 第22-27页 |
2.5.3 基于局部特征的算法综述 | 第27-28页 |
2.5.4 局部特征算法举例:SIFT算法 | 第28-38页 |
2.6 本章小结 | 第38-39页 |
第3章 局部关键点特征提取和描述 | 第39-54页 |
3.1 本章引言 | 第39页 |
3.2 FAST特征检测子 | 第39-47页 |
3.2.1 FAST算子的算法原理 | 第40-42页 |
3.2.2 基于机器学习的特征检测 | 第42-44页 |
3.2.3 FAST算子的提高版本 | 第44-46页 |
3.2.4 实验结果 | 第46-47页 |
3.3 特征描述子 | 第47-53页 |
3.3.1 BRIEF描述子 | 第47-51页 |
3.3.2 基于BRIEF改进后的描述子 | 第51-52页 |
3.3.3 实验结果 | 第52-53页 |
3.4 本章小结 | 第53-54页 |
第4章 特征的组织、检索和匹配 | 第54-63页 |
4.1 本章引言 | 第54页 |
4.2 经典的Bag Of Feature算法 | 第54-56页 |
4.3 基于图像(spatial)和特征(feature)空间的金字塔匹配 | 第56-60页 |
4.3.1 特征空间金字塔匹配 | 第57-59页 |
4.3.2 图像空间金字塔匹配 | 第59-60页 |
4.3.3 双空间金字塔匹配 | 第60页 |
4.4 基于分布式的大规模特征检索与匹配 | 第60-62页 |
4.5 本章小结 | 第62-63页 |
第5章 实验设计与结果 | 第63-67页 |
5.1 实验设计 | 第63-64页 |
5.2 实验结果 | 第64-67页 |
5.2.1 FAST+CBRIEF+BPM框架的precision和recall | 第64-65页 |
5.2.2 与Bag Of Feature的实验结果对比 | 第65-66页 |
5.2.3 基于hadoop分布式的模拟线上测试 | 第66-67页 |
第6章 总结与展望 | 第67-69页 |
6.1 本文实现的视频近重复检测的特点 | 第67-68页 |
6.2 不足与展望 | 第68-69页 |
参考文献 | 第69-73页 |
致谢 | 第73-74页 |