摘要 | 第7-9页 |
abstract | 第9-10页 |
第一章 绪论 | 第11-18页 |
1.1 研究背景与意义 | 第11-12页 |
1.2 研究现状 | 第12-15页 |
1.2.1 动作特征的提取 | 第12-14页 |
1.2.2 动作识别算法 | 第14-15页 |
1.3 研究内容 | 第15-16页 |
1.4 论文组织结构 | 第16-18页 |
第二章 数据采集 | 第18-27页 |
2.1 Kinect平台简介 | 第18-21页 |
2.2 基于Kinect平台的数据采集 | 第21-26页 |
2.2.1 Kinect设备工作环境简介 | 第21-22页 |
2.2.2 单个Kinect设备的数据采集 | 第22-24页 |
2.2.3 两个Kinect设备同步数据采集系统的实现 | 第24-26页 |
2.3 本章小结 | 第26-27页 |
第三章 Kinect平台下动作特征表述的研究 | 第27-35页 |
3.1 基于骨架数据的特征表述 | 第27-29页 |
3.2 彩色图像SURF特征描述子的研究 | 第29-34页 |
3.3 本章小结 | 第34-35页 |
第四章 基于骨骼点数据的人体动作识别 | 第35-66页 |
4.1 基于主成分分析的人体动作识别 | 第35-44页 |
4.1.1 主成分分析方法的总体思路分析 | 第35-36页 |
4.1.2 主成分分析方法的具体实现 | 第36-40页 |
4.1.3 实验结果 | 第40-43页 |
4.1.4 小结 | 第43-44页 |
4.2 基于混合高斯模型的相似性动作识别 | 第44-57页 |
4.2.1 词袋模型应用及原理简介 | 第44-46页 |
4.2.2 姿态字典的生成 | 第46-48页 |
4.2.3 特征词引入GMM建模 | 第48-51页 |
4.2.4 动作识别 | 第51-55页 |
4.2.5 实验结果与分析 | 第55-57页 |
4.2.6 小结 | 第57页 |
4.3 基于One-shot learning的人体动作识别 | 第57-65页 |
4.3.1 基于K近邻算法的关键姿态的提取 | 第57-59页 |
4.3.2 关键姿态的筛选过滤和权重配置 | 第59-61页 |
4.3.3 动作识别 | 第61-62页 |
4.3.4 实验结果 | 第62-65页 |
4.4 本章小结 | 第65-66页 |
第五章 融合视频信息和骨骼点数据的人体动作识别 | 第66-79页 |
5.1 基于彩色视频信息特征提取 | 第66-69页 |
5.2 融合机制 | 第69-70页 |
5.3 基于词袋模型的融合算法 | 第70-71页 |
5.4 基于One-shot learning的融合算法 | 第71-72页 |
5.5 实验结果与分析 | 第72-78页 |
5.5.1 基于词袋模型的融合算法实验 | 第73-75页 |
5.5.2 基于One-shot learning的融合算法实验 | 第75-78页 |
5.6 本章小结 | 第78-79页 |
第六章 结论与展望 | 第79-81页 |
6.1 总结 | 第79-80页 |
6.2 展望 | 第80-81页 |
参考文献 | 第81-86页 |
致谢 | 第86-87页 |
附录 | 第87页 |