摘要 | 第3-4页 |
Abstract | 第4-5页 |
1 绪论 | 第8-18页 |
1.1 引言 | 第8页 |
1.2 课题研究背景与意义 | 第8-10页 |
1.3 国内外研究现状 | 第10-15页 |
1.3.1 人体行为特征提取方法 | 第11-13页 |
1.3.2 人体行为识别方法 | 第13-15页 |
1.4 人体行为识别主要难点 | 第15-16页 |
1.5 主要的研究内容与论文组织结构 | 第16-18页 |
2 前后向结合的帧差法人体运动前景提取 | 第18-30页 |
2.1 引言 | 第18页 |
2.2 视频预处理 | 第18-19页 |
2.2.1 视频图像的增强 | 第18页 |
2.2.2 多尺度的视频图像构建 | 第18-19页 |
2.3 运动目标检测方法 | 第19-24页 |
2.3.1 简单背景差分法 | 第19-21页 |
2.3.2 帧差法 | 第21-22页 |
2.3.3 高斯背景建模法 | 第22-24页 |
2.4 改进的运动前景提取算法 | 第24-28页 |
2.4.1 帧差法的改进 | 第24-26页 |
2.4.2 基于形态学的帧差法运动前景处理 | 第26-28页 |
2.5 实验结果与分析 | 第28-29页 |
2.6 本章小结 | 第29-30页 |
3 融合运动信息的人体行为特征提取 | 第30-42页 |
3.1 人体行为特征概述 | 第30页 |
3.2 基于运动的人体整体特征提取 | 第30-31页 |
3.2.1 提取人体运动最小外接矩形 | 第30-31页 |
3.2.2 提取人体运动最小外接圆 | 第31页 |
3.3 人体整体特征描述 | 第31页 |
3.4 时空特征(spatio-temporal feature) | 第31-34页 |
3.4.1 3D-Harris时空特征兴趣点 | 第31-33页 |
3.4.2 Dollár时空特征兴趣点 | 第33-34页 |
3.4.3 Selective-stip时空特征兴趣点 | 第34页 |
3.5 融合运动信息的兴趣点检测 | 第34-37页 |
3.5.1 FAST(Features From Accelerated Segment)角点提取 | 第34-35页 |
3.5.2 融合运动信息和FAST角点的兴趣点检测 | 第35-37页 |
3.6 时空特征提取与描述 | 第37-41页 |
3.6.1 HOG/HOF特征描述 | 第37-40页 |
3.6.2 3D -SIFT特征描述子 | 第40页 |
3.6.3 Cuboids特征描述子 | 第40-41页 |
3.7 本章小结 | 第41-42页 |
4 基于视觉词汇的人体行为建模与分类 | 第42-52页 |
4.1 BOW模型 | 第42-43页 |
4.2 视觉词典的构建 | 第43-46页 |
4.2.1 K-means聚类 | 第43-44页 |
4.2.2 AP聚类 | 第44-45页 |
4.2.3 视觉词汇的权重分配 | 第45-46页 |
4.3 人体行为分类训练与识别 | 第46-52页 |
4.3.1 常用的人体行为数据库 | 第46-48页 |
4.3.2 三阶最近邻行为识别 | 第48-49页 |
4.3.3 基于SVM(Support Vector Machine)的行为识别 | 第49-50页 |
4.3.4 基于决策树的行为识别 | 第50-52页 |
5 实验结果分析及实时行为识别方法探索 | 第52-58页 |
5.1 不同视觉词汇大小的比较 | 第52页 |
5.2 不同SVM核函数识别性能的比较 | 第52-53页 |
5.3 不同聚类方法获得的识别性能比较及分析 | 第53-54页 |
5.4 特征融合人体行为识别 | 第54页 |
5.5 实时行为识别方法探索 | 第54-55页 |
5.6 系统实现 | 第55-57页 |
5.7 本章小结 | 第57-58页 |
6 总结与展望 | 第58-60页 |
6.1 全文总结 | 第58页 |
6.2 未来展望 | 第58-60页 |
致谢 | 第60-62页 |
参考文献 | 第62-68页 |
附录 | 第68页 |