视频中人体行为识别的研究
| 摘要 | 第4-5页 |
| Abstract | 第5页 |
| 专用术语注释表 | 第8-9页 |
| 第一章 绪论 | 第9-15页 |
| 1.1 研究背景与意义 | 第9-10页 |
| 1.2 国内外研究现状 | 第10-13页 |
| 1.2.1 行为识别的一般框架 | 第11页 |
| 1.2.2 目前行为识别相关工作介绍 | 第11-13页 |
| 1.2.3 当前行为识别研究存在的问题 | 第13页 |
| 1.3 本文的结构 | 第13-15页 |
| 第二章 时空兴趣点的提取与描述 | 第15-28页 |
| 2.1 全局特征与局部特征 | 第15-16页 |
| 2.1.1 全局特征 | 第15-16页 |
| 2.1.2 局部特征 | 第16页 |
| 2.2 时空兴趣点检测 | 第16-21页 |
| 2.2.1 3D-Harris时空兴趣点检测 | 第17-19页 |
| 2.2.2 Dollar时空兴趣点检测 | 第19-20页 |
| 2.2.3 实验与结果分析 | 第20-21页 |
| 2.3 时空兴趣点的描述 | 第21-27页 |
| 2.3.1 HOG描述子 | 第21-23页 |
| 2.3.2 HOF描述子 | 第23-24页 |
| 2.3.3 3D HOG描述子 | 第24-27页 |
| 2.4 小结 | 第27-28页 |
| 第三章 视觉词袋模型与行为分类 | 第28-39页 |
| 3.1 视觉词袋模型 | 第28-31页 |
| 3.1.1 模型介绍 | 第28-29页 |
| 3.1.2 K-means聚类 | 第29-30页 |
| 3.1.3 聚类实验与分析 | 第30-31页 |
| 3.2 行为分类器 | 第31-33页 |
| 3.2.1 K近邻分类 | 第31-32页 |
| 3.2.2 支持向量机 | 第32-33页 |
| 3.3 仿真分析 | 第33-38页 |
| 3.3.1 常用视频数据库 | 第33-34页 |
| 3.3.2 实验 | 第34-38页 |
| 3.4 小结 | 第38-39页 |
| 第四章 时空兴趣点提取与描述方法的改进 | 第39-50页 |
| 4.1 增加提取时空兴趣点的质量 | 第39-42页 |
| 4.1.1 滤除背景中无关兴趣点 | 第39-42页 |
| 4.1.2 时空兴趣点检测改进后的实验 | 第42页 |
| 4.2 多特征融合丰富特征信息 | 第42-45页 |
| 4.2.1 复合时空特征 | 第43-44页 |
| 4.2.2 融合时空兴趣点的轨迹特征 | 第44-45页 |
| 4.3 本文人体行为识别框架 | 第45-46页 |
| 4.4 实验 | 第46-49页 |
| 4.5 小结 | 第49-50页 |
| 第五章 人体行为识别在视频监控中的应用 | 第50-55页 |
| 5.1 智能视频监控系统 | 第50-52页 |
| 5.2 监控视频中动作识别 | 第52-54页 |
| 5.2.1 短视频单一动作识别 | 第52页 |
| 5.2.2 长视频动作检测和识别 | 第52-54页 |
| 5.3 小结 | 第54-55页 |
| 第六章 总结与展望 | 第55-57页 |
| 6.1 工作总结 | 第55-56页 |
| 6.2 展望 | 第56-57页 |
| 参考文献 | 第57-60页 |
| 致谢 | 第60页 |