摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第一章 绪论 | 第9-15页 |
1.1 论文的背景与意义 | 第9-10页 |
1.2 研究现状及分析 | 第10-13页 |
1.2.1 人的行为理解技术发展现状 | 第10-12页 |
1.2.2 基于深度信息和骨骼图像的人的行为理解技术研究现状 | 第12-13页 |
1.2.3 基于物体信息和人体信息的人的行为理解技术研究现状 | 第13页 |
1.3 论文主要内容及结构安排 | 第13-15页 |
第二章 人的行为理解算法平台介绍 | 第15-23页 |
2.1 Kinect硬件平台介绍 | 第15-17页 |
2.1.1 Kinect深度图像成像原理 | 第16页 |
2.1.2 骨骼图像成像原理 | 第16-17页 |
2.2 Kinect SDK介绍 | 第17-21页 |
2.2.1 Kinect SDK总体架构 | 第18页 |
2.2.2 Kinect SDK获取彩色图像、深度图像、骨骼图像 | 第18-19页 |
2.2.3 彩色空间、深度空间和骨骼坐标空间关系 | 第19-21页 |
2.3 实验环境设定 | 第21-22页 |
2.4 本章小结 | 第22-23页 |
第三章 行为识别算法总体结构及关键姿态、人体动作提取 | 第23-45页 |
3.1 行为识别算法总体结构 | 第23-24页 |
3.2 关键姿态提取 | 第24-29页 |
3.2.1 关键姿态的定义 | 第24-27页 |
3.2.2 关键姿态特征的提取 | 第27-29页 |
3.3 关键姿态的状态分类算法 | 第29-36页 |
3.3.1 SVM算法简介 | 第30页 |
3.3.2 线性可分SVM | 第30-32页 |
3.3.3 线性SVM | 第32-33页 |
3.3.4 非线性SVM | 第33-34页 |
3.3.5 关键姿态的状态分类算法实验 | 第34-36页 |
3.4 人体动作特征提取 | 第36-38页 |
3.4.1 人体动作的定义 | 第36-37页 |
3.4.2 人体动作特征提取 | 第37-38页 |
3.5 人体动作的状态分类 | 第38-44页 |
3.5.1 动态时间规整算法简介 | 第39-40页 |
3.5.2 K近邻算法简介 | 第40-41页 |
3.5.3 人体动作的状态识别实验 | 第41-44页 |
3.6 本章小结 | 第44-45页 |
第四章 基于彩色图像和深度图像的手持物体识别 | 第45-55页 |
4.1 手持物体分割 | 第45-48页 |
4.1.1 基于深度值的区域分割 | 第45-47页 |
4.1.2 手部颜色模型 | 第47-48页 |
4.2 手持物体特征提取 | 第48-51页 |
4.2.1 手持物体彩色图像特征提取 | 第48-50页 |
4.2.2 手持物体深度图像特征提取 | 第50-51页 |
4.3 手持物体特征分类与识别实验 | 第51-53页 |
4.4 本章小结 | 第53-55页 |
第五章 人的行为理解算法研究 | 第55-67页 |
5.1 行为编码 | 第55-56页 |
5.2 状态关联分析 | 第56-60页 |
5.2.1 关联分析算法简介 | 第56-57页 |
5.2.2 Apriori算法 | 第57-58页 |
5.2.3 FP-growth算法 | 第58-60页 |
5.3 基于朴素贝叶斯的人的行为理解算法 | 第60-65页 |
5.3.1 朴素贝叶斯法简介 | 第61-63页 |
5.3.2 基于朴素贝叶斯的行为分析 | 第63-65页 |
5.4 本章小结 | 第65-67页 |
第六章 总结和展望 | 第67-69页 |
6.1 总结 | 第67页 |
6.2 展望 | 第67-69页 |
致谢 | 第69-71页 |
参考文献 | 第71-75页 |
攻读硕士学位期间发表的论文 | 第75页 |