摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 课题背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.3 本论文主要研究内容 | 第14-15页 |
1.4 本论文的结构安排 | 第15-16页 |
第二章 实时视频前后景分割算法研究 | 第16-30页 |
2.1 前后景分割算法简介 | 第16-17页 |
2.2 前后景分割算法 | 第17-24页 |
2.2.1 Mean Shift分割法 | 第17-18页 |
2.2.2 基于活动轮廓模型的分割方法 | 第18-20页 |
2.2.3 边缘检测分割法 | 第20-24页 |
2.3 基于随机选择及多层次颜色空间的超分割算法 | 第24-28页 |
2.3.1 基于随机选择的分割 | 第24-25页 |
2.3.2 基于多层次颜色空间的分割 | 第25-26页 |
2.3.3 随机选择及多层次颜色空间的超分割方法 | 第26-28页 |
2.4 实时视频分割算法实验对比 | 第28-29页 |
2.5 本章小结 | 第29-30页 |
第三章 视频目标识别和场景分类 | 第30-57页 |
3.1 视觉特征模型 | 第30-42页 |
3.1.1 视频图像的视觉特征 | 第30-40页 |
3.1.2 特征可视化 | 第40-41页 |
3.1.3 局部特征聚类法k-mean | 第41-42页 |
3.2 视觉词袋模型 | 第42-45页 |
3.2.1 词袋模型 | 第42页 |
3.2.2 视觉词典 | 第42-45页 |
3.3 基于视觉词袋的视觉目标识别 | 第45-50页 |
3.3.1 SVM分类器 | 第45-47页 |
3.3.2 Boost弱分类器 | 第47-48页 |
3.3.3 基于SURF-BOW的强分类器 | 第48-49页 |
3.3.4 SVM、Adaboost、SURF-BOW分类器对比 | 第49-50页 |
3.4 基于SURF-BOW视觉词袋的视频场景分类 | 第50-54页 |
3.4.1 普通场景分类 | 第50-52页 |
3.4.2 暗场景分类 | 第52-54页 |
3.5 实验结果分析 | 第54-56页 |
3.6 本章小结 | 第56-57页 |
第四章 基于相似特征与相对位移结合的多目标跟踪 | 第57-70页 |
4.1 目标跟踪简介 | 第57-60页 |
4.1.1 目标跟踪分类 | 第57-58页 |
4.1.2 基于特征的目标跟踪技术 | 第58-60页 |
4.2 相似特征介绍 | 第60-65页 |
4.2.1 外观相似目标跟踪问题 | 第60-61页 |
4.2.2 广义线性分配GLA | 第61-62页 |
4.2.3 相似特征和相对位移 | 第62-63页 |
4.2.4 相似特征的计算 | 第63-65页 |
4.3 基于相似特征与相对位移结合的跟踪分析 | 第65-66页 |
4.4 基于超分割检测的多目标跟踪算法 | 第66-69页 |
4.4.1 实验及效果分析 | 第67-69页 |
4.5 本章小结 | 第69-70页 |
第五章 监控视频内容智能理解 | 第70-76页 |
5.1 实验设计 | 第70-72页 |
5.2 实验环境及数据集 | 第72-73页 |
5.3 实验结果及分析 | 第73-75页 |
5.4 本章小结 | 第75-76页 |
第六章 总结和展望 | 第76-78页 |
致谢 | 第78-79页 |
参考文献 | 第79-83页 |
攻硕期间取得的研究成果 | 第83-84页 |