摘要 | 第4-5页 |
Abstract | 第5页 |
第一章 绪论 | 第8-14页 |
1.1 研究背景和意义 | 第8页 |
1.2 国内外研究现状 | 第8-12页 |
1.2.1 基于关键帧的视频摘要技术综述 | 第9页 |
1.2.2 基于对象的视频摘要技术综述 | 第9-12页 |
1.3 本论文的主要工作和内容安排 | 第12-14页 |
第二章 基于关键帧视频摘要技术研究 | 第14-24页 |
2.1 视频结构化分析 | 第14-15页 |
2.2 镜头分割 | 第15-17页 |
2.2.1 镜头转换类型 | 第15页 |
2.2.2 常见镜头边界检测算法 | 第15-17页 |
2.3 关键帧提取 | 第17-18页 |
2.3.1 基于采样的关键帧提取方法 | 第17页 |
2.3.2 基于帧间差的关键帧提取方法 | 第17页 |
2.3.3 基于运动信息的关键帧提取方法 | 第17-18页 |
2.3.4 基于聚类的关键帧提取方法 | 第18页 |
2.4 基于关键帧的视频摘要的构造 | 第18-23页 |
2.4.1 基于 K-means 的视频摘要实现 | 第18-20页 |
2.4.2 改进的 K Means的算法原理 | 第20页 |
2.4.3 实验分析 | 第20-23页 |
2.5 本章小结 | 第23-24页 |
第三章 基于对象的视频摘要技术研究 | 第24-44页 |
3.1 基于对象的视频摘要的技术原理和框架 | 第24-27页 |
3.1.1 基于对象的视频摘要的原理 | 第24-25页 |
3.1.2 基于对象的视频摘要技术框架 | 第25-27页 |
3.2 背景建模 | 第27-29页 |
3.2.1 背景建模算法 | 第28页 |
3.2.2 实验效果 | 第28-29页 |
3.3 运动目标检测和提取 | 第29-33页 |
3.3.1 运动目标检测算法 | 第29-31页 |
3.3.2 Grabcut 算法介绍及运动目标提取 | 第31-33页 |
3.4 运动目标跟踪和轨迹提取 | 第33-36页 |
3.4.1 Meanshift 算法用于目标跟踪 | 第34-35页 |
3.4.2 实验结果 | 第35页 |
3.4.3 运动轨迹提取 | 第35-36页 |
3.5 目标轨迹组合和优化 | 第36-41页 |
3.5.1 能量目标函数 | 第37-40页 |
3.5.2 能量目标函数最小化 | 第40-41页 |
3.6 背景的重采样和摘要视频的拼接 | 第41-42页 |
3.6.1 背景的重采样 | 第41页 |
3.6.2 摘要视频的拼接 | 第41-42页 |
3.7 本章小结 | 第42-44页 |
第四章 聚类视频摘要技术研究 | 第44-53页 |
4.1 视频对象分类特征评价和选择方法 | 第44-47页 |
4.1.1 特征提取 | 第45-46页 |
4.1.2 训练样本的生成 | 第46-47页 |
4.2 SVM 分类器 | 第47-52页 |
4.2.1 SVM 分类器的原理 | 第47-48页 |
4.2.2 LibSVM 简介 | 第48-49页 |
4.2.3 实验分析 | 第49-52页 |
4.3 本章小结 | 第52-53页 |
第五章 系统软件设计和算法实现 | 第53-66页 |
5.1 功能需求分析 | 第53页 |
5.2 Qt 与 OpenCV 简介 | 第53-55页 |
5.2.1 QT 简介 | 第53-54页 |
5.2.2 OpenCV 简介 | 第54-55页 |
5.3 开发环境搭建 | 第55-56页 |
5.4 软件总体设计 | 第56-57页 |
5.5 运动目标分析 | 第57-59页 |
5.5.1 背景提取 | 第57页 |
5.5.2 运动物体检测 | 第57-58页 |
5.5.3 运动目标获取与标记 | 第58页 |
5.5.4 基于 SVM 的目标分类 | 第58-59页 |
5.6 视频检索和摘要的实现 | 第59-65页 |
5.6.1 视频检索的实现 | 第59-60页 |
5.6.2 视频摘要的实现 | 第60-61页 |
5.6.3 系统调试和测试 | 第61-65页 |
5.7 本章小结 | 第65-66页 |
第六章 总结与展望 | 第66-68页 |
6.1 本文工作总结 | 第66页 |
6.2 不足和展望 | 第66-68页 |
参考文献 | 第68-71页 |
附录1 攻读硕士学位期间撰写的论文 | 第71-72页 |
附录2 攻读硕士学位期间申请的专利 | 第72-73页 |
附录3 攻读硕士学位期间参加的科研项目 | 第73-74页 |
致谢 | 第74页 |