摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第15-32页 |
1.1 课题背景 | 第15-16页 |
1.2 课题来源 | 第16-17页 |
1.3 人体行为识别问题定义与描述 | 第17页 |
1.4 国内外研究现状 | 第17-29页 |
1.4.1 人体行为表示与特征提取 | 第18-24页 |
1.4.2 人体行为特征融合 | 第24-26页 |
1.4.3 人体行为分类方法 | 第26-29页 |
1.5 研究内容及创新点 | 第29-30页 |
1.6 本文的组织结构 | 第30-32页 |
第2章 基于轮廓及运动矢量提取深度特征的人体行为识别方法 | 第32-65页 |
2.1 引言 | 第32页 |
2.2 已有研究工作介绍 | 第32-35页 |
2.3 基于轮廓及运动矢量的人体行为深度特征提取算法 | 第35-43页 |
2.4 使用Kinect提取深度特征 | 第43-48页 |
2.5 人体行为边缘傅里叶描述子特征 | 第48-49页 |
2.6 基于深度特征的人体行为多特征组合 | 第49-50页 |
2.7 人体行为分类 | 第50-52页 |
2.8 实验与分析 | 第52-64页 |
2.8.1 DHA人体行为数据库介绍 | 第52页 |
2.8.2 不同特征对比分析 | 第52-64页 |
2.9 本章小结 | 第64-65页 |
第3章 基于相邻帧融合静动态多特征的人体行为识别方法 | 第65-100页 |
3.1 引言 | 第65-66页 |
3.2 已有研究工作介绍 | 第66-67页 |
3.3 人体行为轮廓特征提取 | 第67-70页 |
3.4 人体行为轮廓不变矩特征提取 | 第70-74页 |
3.5 人体行为光流特征提取 | 第74-76页 |
3.6 相邻多帧人体行为静动态多特征融合算法 | 第76-78页 |
3.7 基于K-L变换的人体行为静动态特征融合 | 第78-79页 |
3.8 实验与分析 | 第79-90页 |
3.8.1 人体行为数据库介绍 | 第79-81页 |
3.8.2 特征融合方法对比分析 | 第81-86页 |
3.8.3 切分方式对比分析 | 第86-87页 |
3.8.4 邻帧融合方法对比分析 | 第87-89页 |
3.8.5 数据库划分对比分析 | 第89-90页 |
3.9 其他应用-手势识别 | 第90-94页 |
3.9.1 手势特征提取 | 第91-92页 |
3.9.2 手势分类及实验分析 | 第92-94页 |
3.10 其他应用-表情识别 | 第94-99页 |
3.10.1 人脸检测与人眼定位 | 第95-96页 |
3.10.2 表情特征提取 | 第96-97页 |
3.10.3 表情分类及实验分析 | 第97-99页 |
3.11 本章小结 | 第99-100页 |
第4章 基于网格量化多特征的人体行为识别方法 | 第100-120页 |
4.1 引言 | 第100-101页 |
4.2 已有研究工作介绍 | 第101-102页 |
4.3 人体行为边缘特征提取 | 第102-103页 |
4.4 基于网格量化的人体行为特征提取算法 | 第103-107页 |
4.5 基于关键帧及DTW的人体行为分类 | 第107-112页 |
4.5.1 关键帧提取 | 第108-111页 |
4.5.2 人体行为建模与分类 | 第111-112页 |
4.6 实验与分析 | 第112-119页 |
4.6.1 UCF数据库 | 第112-113页 |
4.6.2 不同特征及场景分割对比分析 | 第113-118页 |
4.6.3 基于邻帧量化方式对比分析 | 第118-119页 |
4.7 本章小结 | 第119-120页 |
第5章 基于光流编码特征及MRF模型的异常人体行为识别方法 | 第120-133页 |
5.1 引言 | 第120页 |
5.2 已有研究工作介绍 | 第120-121页 |
5.3 人体行为特征选择 | 第121页 |
5.4 人体行为特征编码 | 第121-123页 |
5.5 异常人体行为时空块模型 | 第123页 |
5.6 基于MRF时空光流编码特征的异常人体行为分类 | 第123-126页 |
5.7 实验与分析 | 第126-131页 |
5.7.1 算法性能分析 | 第126-131页 |
5.7.2 切分方式实验对比分析 | 第131页 |
5.8 本章小结 | 第131-133页 |
结论 | 第133-135页 |
参考文献 | 第135-155页 |
攻读博士学位期间发表的论文及其他成果 | 第155-158页 |
致谢 | 第158-159页 |
个人简历 | 第159页 |