基于时空近邻轨迹分析算法的视频摘要及检索系统
摘要 | 第5-6页 |
Abstract | 第6页 |
第一章 绪论 | 第9-15页 |
1.1 课题背景与意义 | 第9页 |
1.2 课题的研究现状 | 第9-14页 |
1.2.1 前景目标检测的研究现状 | 第9-11页 |
1.2.2 运动轨迹分析的研究现状 | 第11页 |
1.2.3 视频内容检索的研究现状 | 第11-13页 |
1.2.4 国内外相关产品 | 第13-14页 |
1.3 研究内容以及论文结构 | 第14-15页 |
第二章 系统简介 | 第15-23页 |
2.1 系统设计目的和关键技术问题 | 第15-16页 |
2.1.1 系统设计目的 | 第15页 |
2.1.2 关键技术问题 | 第15-16页 |
2.2 系统主要模块 | 第16-18页 |
2.2.1 视频摘要模块 | 第16-17页 |
2.2.2 视频内容检索模块 | 第17-18页 |
2.3 系统指标 | 第18-20页 |
2.3.1 视频摘要模块 | 第18-19页 |
2.3.2 视频内容检索模块 | 第19-20页 |
2.4 实验数据介绍 | 第20-22页 |
2.5 本章小结 | 第22-23页 |
第三章 时空近邻轨迹分析算法 | 第23-44页 |
3.1 前景目标的时空近邻性 | 第23-25页 |
3.2 时空近邻轨迹分析算法基本思路 | 第25页 |
3.3 前景目标检测 | 第25-30页 |
3.3.1 前景检测效果对比 | 第26-28页 |
3.3.2 前景检测处理速率对比 | 第28-29页 |
3.3.3 前景检测算法选择 | 第29-30页 |
3.4 前景图像预处理 | 第30-37页 |
3.4.1 前景图像降噪 | 第30-33页 |
3.4.2 前景图像空洞去除 | 第33-36页 |
3.4.3 获取前景目标外接矩形框 | 第36-37页 |
3.5 前景目标空间相邻性判定 | 第37页 |
3.6 运动轨迹跟踪 | 第37-42页 |
3.5.1 运动轨迹数据结构 | 第38-39页 |
3.5.2 判断轨迹开始 | 第39页 |
3.5.3 运动轨迹更新 | 第39-40页 |
3.5.4 判断轨迹结束 | 第40-41页 |
3.5.5 去除时间过短的运动轨迹 | 第41-42页 |
3.7 时空近邻轨迹分析算法完整步骤 | 第42页 |
3.8 本章小结 | 第42-44页 |
第四章 基于运动轨迹的视频内容检索算法 | 第44-54页 |
4.1 按时间段检索 | 第44-45页 |
4.2 按移动方向检索 | 第45页 |
4.3 按区域检索 | 第45-46页 |
4.4 按颜色检索 | 第46-50页 |
4.4.1 颜色空间的选取 | 第46-47页 |
4.4.2 颜色相似性度量 | 第47-49页 |
4.4.3 按颜色检索算法 | 第49-50页 |
4.5 按类型检索 | 第50-52页 |
4.5.1 训练Harr分类器 | 第50-51页 |
4.5.2 基于Harr分类器的事件类型检索算法 | 第51-52页 |
4.6 以图搜图 | 第52-53页 |
4.6.1 Sift特征匹配 | 第52页 |
4.6.2 以图搜图算法 | 第52-53页 |
4.7 本章小结 | 第53-54页 |
第五章 系统实现与运行测试 | 第54-68页 |
5.1 系统环境 | 第54页 |
5.1.1 软件环境 | 第54页 |
5.1.2 硬件环境 | 第54页 |
5.2 视频摘要模块 | 第54-59页 |
5.2.1 视频摘要模块的功能 | 第54-55页 |
5.2.2 事件摘要的实现和存储 | 第55-57页 |
5.2.3 全视频浓缩摘要的实现和存储 | 第57-58页 |
5.2.4 视频摘要模块界面 | 第58-59页 |
5.3 视频内容检索模块 | 第59-60页 |
5.3.1 视频内容检索模块功能列表 | 第59-60页 |
5.3.2 事件检索模块界面 | 第60页 |
5.4 运行测试 | 第60-67页 |
5.4.1 轨迹检出率 | 第60-62页 |
5.4.2 轨迹跟踪平均持续度 | 第62-64页 |
5.4.3 视频摘要处理速度 | 第64-65页 |
5.4.4 按颜色检索准确率 | 第65页 |
5.4.5 按事件类型检索准确率 | 第65-67页 |
5.5 本章小结 | 第67-68页 |
第六章 总结与展望 | 第68-69页 |
参考文献 | 第69-72页 |
致谢 | 第72-73页 |
附件:攻读博士/硕士学位期间取得的研究成果 | 第73-74页 |
附录 | 第74页 |