摘要 | 第8-10页 |
ABSTRACT | 第10-11页 |
第一章 绪论 | 第12-24页 |
1.1 课题研究背景与意义 | 第12-14页 |
1.2 人体行为识别的研究现状 | 第14-21页 |
1.2.1 数据集概述 | 第15页 |
1.2.2. 特征提取算法概述 | 第15-19页 |
1.2.3 分类器概述 | 第19-21页 |
1.3 基于RGB-D行为识别研究存在的问题 | 第21页 |
1.4 本文的主要工作 | 第21-22页 |
1.5 章节安排 | 第22-24页 |
第二章 公共RGB-D行为数据集 | 第24-34页 |
2.1 Kinect介绍 | 第24-26页 |
2.1.1 Kinect的结构组成 | 第25页 |
2.1.2 Kinect彩色数据的获取 | 第25页 |
2.1.3 Kinect深度数据的获取 | 第25-26页 |
2.2 常见公共RGB-D数据集 | 第26-31页 |
2.2.1 RGBD-HuDaAct数据集 | 第26-27页 |
2.2.2 SDUFall数据集 | 第27页 |
2.2.3 UCLA多角度行为3D数据集 | 第27-28页 |
2.2.4 MSR日常行为3D数据集 | 第28-29页 |
2.2.5 CAD-60数据集 | 第29页 |
2.2.6 MV-TJU数据集 | 第29-30页 |
2.2.7 MHAD数据集 | 第30-31页 |
2.3 五个公共子数据集整合原因 | 第31-33页 |
2.4 本章小结 | 第33-34页 |
第三章 RGB-D大规模行为数据集的建立 | 第34-40页 |
3.1 行为层次 | 第34-36页 |
3.2 实际数据的整合 | 第36-37页 |
3.2.1 RGBD-HuDaAct数据集 | 第36页 |
3.2.2 SDUFall数据集 | 第36页 |
3.2.3 UCLA多角度行为3D数据集 | 第36-37页 |
3.2.4 MSR日常行为3D数据集 | 第37页 |
3.2.5 CAD-60数据集 | 第37页 |
3.3 大规模数据集的描述 | 第37-39页 |
3.4 大规模数据集的优势 | 第39页 |
3.5 本章小结 | 第39-40页 |
第四章 基于RGB-D大规模数据集的特征提取算法研究 | 第40-62页 |
4.1 深度行为投影图特征(DMMs) | 第40-42页 |
4.2 时空深度立方体相似性特征(STDCSF) | 第42-44页 |
4.2.1 时空兴趣点检测 | 第43-44页 |
4.2.2 时空兴趣点描述 | 第44页 |
4.3 曲率尺度空间特征(CSS) | 第44-46页 |
4.4 基于RGB-D大规模行为数据集的实验框架设计 | 第46-51页 |
4.4.1 特征提取 | 第47-48页 |
4.4.2 训练集和测试集的划分 | 第48-49页 |
4.4.3 词包模型 | 第49-50页 |
4.4.4 行为分类 | 第50-51页 |
4.5 人体日常行为识别实验与分析 | 第51-61页 |
4.5.1 词包模型中参数K的选择 | 第51-52页 |
4.5.2 三种特征基于五个子数据集和大规模数据集的识别精度比较 | 第52-59页 |
4.5.3 三种特征基于RGB-D大规模数据集的分类结果以及算法分析 | 第59-61页 |
4.6 本章小结 | 第61-62页 |
第五章 总结与展望 | 第62-66页 |
5.1 总结 | 第62-63页 |
5.2 展望 | 第63-66页 |
参考文献 | 第66-72页 |
致谢 | 第72-74页 |
攻读硕士学位期间发表的论文 | 第74-75页 |
学位论文评阅及答辩情况表 | 第75页 |