基于加权光流特征和时空关联模型的人体行为识别
摘要 | 第4-5页 |
Abstract | 第5页 |
专用术语注释表 | 第8-9页 |
第一章 绪论 | 第9-17页 |
1.1 研究背景与意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-16页 |
1.2.1 行为识别的一般框架 | 第11-12页 |
1.2.2 目前行为识别相关工作介绍 | 第12-15页 |
1.2.3 当前行为识别研究存在的问题 | 第15-16页 |
1.3 本文的结构 | 第16-17页 |
第二章 行为识别的关键问题 | 第17-28页 |
2.1 运动区域检测 | 第17-19页 |
2.1.1 背景减除法 | 第17-18页 |
2.1.2 帧间差分法 | 第18-19页 |
2.1.3 光流法 | 第19页 |
2.2 视频流图像预处理 | 第19-21页 |
2.2.1 图像二值化 | 第20页 |
2.2.2 形态学操作 | 第20-21页 |
2.3 行为识别常用的分类器 | 第21-25页 |
2.3.1 支持向量机 | 第21-23页 |
2.3.2 随机森林 | 第23-24页 |
2.3.3 K近邻分类器 | 第24-25页 |
2.4 行为识别数据库 | 第25-27页 |
2.5 小结 | 第27-28页 |
第三章 时空兴趣点检测与特征描述 | 第28-40页 |
3.1 全局特征 | 第28-29页 |
3.1.1 形状特征 | 第28页 |
3.1.2 纹理特征 | 第28-29页 |
3.2 局部特征 | 第29-33页 |
3.2.1 3D Harris角点检测 | 第29-31页 |
3.2.2 Dollar兴趣点检测 | 第31页 |
3.2.3 Hessian特征点检测 | 第31-33页 |
3.3 特征描述 | 第33-39页 |
3.3.1 HOG/HOF描述子 | 第34-35页 |
3.3.2 3D HOG描述子 | 第35-37页 |
3.3.3 SIFT描述子 | 第37-39页 |
3.4 小结 | 第39-40页 |
第四章 基于加权光流特征与时空关联模型的行为识别 | 第40-61页 |
4.1 光流场的计算 | 第40-47页 |
4.1.1 Horn-Schunck光流法 | 第40-42页 |
4.1.2 Lucas-Kanade光流法 | 第42-45页 |
4.1.3 块匹配光流法 | 第45-47页 |
4.2 加权光流特征融合 | 第47-50页 |
4.2.1 加权光流特征的生成 | 第47-49页 |
4.2.2 词袋模型 | 第49-50页 |
4.3 时空关联模型 | 第50-54页 |
4.3.1 时空关联模型建模流程 | 第51-53页 |
4.3.2 本文行为识别框架 | 第53-54页 |
4.4 实验分析 | 第54-60页 |
4.4.1 多特征融合与单一特征的比较实验 | 第55-57页 |
4.4.2 词袋模型+时空关联模型的实验 | 第57-58页 |
4.4.3 加权光流特征+时空关联模型实验 | 第58-60页 |
4.5 小结 | 第60-61页 |
第五章 视频中人体行为识别技术的应用 | 第61-67页 |
5.1 智能视频监控系统概述 | 第61-64页 |
5.1.1 入侵检测 | 第62-63页 |
5.1.2 时空关联模型在智能监控中的应用 | 第63-64页 |
5.2 人机交互中的应用 | 第64-66页 |
5.2.1 Kinect概述 | 第64-65页 |
5.2.2 加权光流特征在Kinect中的应用 | 第65-66页 |
5.3 小结 | 第66-67页 |
第六章 总结与展望 | 第67-69页 |
6.1 工作总结 | 第67页 |
6.2 展望 | 第67-69页 |
参考文献 | 第69-72页 |
致谢 | 第72页 |