视频中人体行为识别的研究
摘要 | 第4-5页 |
Abstract | 第5页 |
专用术语注释表 | 第8-9页 |
第一章 绪论 | 第9-15页 |
1.1 研究背景与意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-13页 |
1.2.1 行为识别的一般框架 | 第11页 |
1.2.2 目前行为识别相关工作介绍 | 第11-13页 |
1.2.3 当前行为识别研究存在的问题 | 第13页 |
1.3 本文的结构 | 第13-15页 |
第二章 时空兴趣点的提取与描述 | 第15-28页 |
2.1 全局特征与局部特征 | 第15-16页 |
2.1.1 全局特征 | 第15-16页 |
2.1.2 局部特征 | 第16页 |
2.2 时空兴趣点检测 | 第16-21页 |
2.2.1 3D-Harris时空兴趣点检测 | 第17-19页 |
2.2.2 Dollar时空兴趣点检测 | 第19-20页 |
2.2.3 实验与结果分析 | 第20-21页 |
2.3 时空兴趣点的描述 | 第21-27页 |
2.3.1 HOG描述子 | 第21-23页 |
2.3.2 HOF描述子 | 第23-24页 |
2.3.3 3D HOG描述子 | 第24-27页 |
2.4 小结 | 第27-28页 |
第三章 视觉词袋模型与行为分类 | 第28-39页 |
3.1 视觉词袋模型 | 第28-31页 |
3.1.1 模型介绍 | 第28-29页 |
3.1.2 K-means聚类 | 第29-30页 |
3.1.3 聚类实验与分析 | 第30-31页 |
3.2 行为分类器 | 第31-33页 |
3.2.1 K近邻分类 | 第31-32页 |
3.2.2 支持向量机 | 第32-33页 |
3.3 仿真分析 | 第33-38页 |
3.3.1 常用视频数据库 | 第33-34页 |
3.3.2 实验 | 第34-38页 |
3.4 小结 | 第38-39页 |
第四章 时空兴趣点提取与描述方法的改进 | 第39-50页 |
4.1 增加提取时空兴趣点的质量 | 第39-42页 |
4.1.1 滤除背景中无关兴趣点 | 第39-42页 |
4.1.2 时空兴趣点检测改进后的实验 | 第42页 |
4.2 多特征融合丰富特征信息 | 第42-45页 |
4.2.1 复合时空特征 | 第43-44页 |
4.2.2 融合时空兴趣点的轨迹特征 | 第44-45页 |
4.3 本文人体行为识别框架 | 第45-46页 |
4.4 实验 | 第46-49页 |
4.5 小结 | 第49-50页 |
第五章 人体行为识别在视频监控中的应用 | 第50-55页 |
5.1 智能视频监控系统 | 第50-52页 |
5.2 监控视频中动作识别 | 第52-54页 |
5.2.1 短视频单一动作识别 | 第52页 |
5.2.2 长视频动作检测和识别 | 第52-54页 |
5.3 小结 | 第54-55页 |
第六章 总结与展望 | 第55-57页 |
6.1 工作总结 | 第55-56页 |
6.2 展望 | 第56-57页 |
参考文献 | 第57-60页 |
致谢 | 第60页 |