摘要 | 第9-11页 |
ABSTRACT | 第11-12页 |
第一章 绪论 | 第13-24页 |
1.1 课题研究背景 | 第13-14页 |
1.2 基于深度图像的人体动作识别概述 | 第14-21页 |
1.2.1 基本概念与面临的挑战 | 第14-16页 |
1.2.2 国内外研究现状 | 第16-19页 |
1.2.3 应用领域 | 第19-21页 |
1.3 本文的主要工作及创新点 | 第21-22页 |
1.4 本文的组织结构 | 第22-24页 |
第二章 动作测试集构建 | 第24-37页 |
2.1 Kinect传感器及开发环境概述 | 第24-26页 |
2.1.1 Kinect硬件结构及工作原理 | 第24-25页 |
2.1.2 KinectforWindowsSDK简介 | 第25-26页 |
2.2 动作检测与数据提取 | 第26-30页 |
2.2.1 深度数据获取 | 第27-28页 |
2.2.2 骨骼关节点数据获取 | 第28-30页 |
2.3 基于Kinect的军事手语动作测试集 | 第30-35页 |
2.3.1 军事手语动作及特点分析 | 第30-31页 |
2.3.2 军事手语动作测试集 | 第31-35页 |
2.4 本章小结 | 第35-37页 |
第三章 单观察源下基于深度图像人体动作识别 | 第37-55页 |
3.1 人体动作特征提取新方法 | 第37-49页 |
3.1.1 深度映射图像 | 第37-38页 |
3.1.2 自适应帧序金字塔模型 | 第38-44页 |
3.1.3 特征向量提取 | 第44-49页 |
3.2 基于稀疏表示的人体动作分类方法 | 第49-51页 |
3.2.1 稀疏表示理论 | 第49-50页 |
3.2.2 基于二范数的稀疏表示分类算法 | 第50-51页 |
3.3 实验及结果分析 | 第51-54页 |
3.3.1 实验设计 | 第51-52页 |
3.3.2 结果分析 | 第52-54页 |
3.4 本章小结 | 第54-55页 |
第四章 多观察源特征融合人体动作识别 | 第55-63页 |
4.1 观察源位置分析 | 第55-57页 |
4.2 多观察源下深度图像特征层融合模型 | 第57-58页 |
4.3 基于Fisher准则的多特征融合方法 | 第58-60页 |
4.3.1 Fisher准则 | 第58-59页 |
4.3.2 融合算法 | 第59-60页 |
4.4 实验及结果分析 | 第60-61页 |
4.5 本章小结 | 第61-63页 |
第五章 连续深度图像帧序列下动作识别算法实现 | 第63-71页 |
5.1 基于骨架关节点的连续图像帧划分 | 第63-68页 |
5.2 算法结构优化 | 第68-70页 |
5.3 本章小结 | 第70-71页 |
第六章 总结与展望 | 第71-74页 |
6.1 总结全文 | 第71-72页 |
6.2 研究展望 | 第72-74页 |
致谢 | 第74-75页 |
参考文献 | 第75-81页 |
作者在学期间取得的学术成果 | 第81页 |