基于机器视觉的肢体动作识别的研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第1章 绪论 | 第9-18页 |
1.1 课题的背景和研究的目的和意义 | 第9-10页 |
1.2 国内外研究现状分析 | 第10-16页 |
1.3 主要的研究内容和论文结构 | 第16-18页 |
第2章 基于视频的哑铃动作识别技术 | 第18-35页 |
2.1 引言 | 第18页 |
2.2 前景提取技术研究 | 第18-22页 |
2.2.1 背景差分法 | 第18-19页 |
2.2.2 帧间相差法 | 第19页 |
2.2.3 光流法 | 第19-20页 |
2.2.4 混合高斯模型法 | 第20-22页 |
2.3 一些常用的图像处理方法 | 第22-23页 |
2.3.1 连通域处理 | 第22-23页 |
2.3.2 二值化处理 | 第23页 |
2.4 机器学习算法的原理 | 第23-33页 |
2.4.1 动态时间规整法 | 第23-25页 |
2.4.2 支持向量机 | 第25-28页 |
2.4.3 随机森林算法 | 第28-31页 |
2.4.4 GBDT算法 | 第31-33页 |
2.5 手机视频识别存在的一些问题 | 第33-34页 |
2.6 本章小结 | 第34-35页 |
第3章 肢体动作识别系统的设计与实现 | 第35-46页 |
3.1 引言 | 第35页 |
3.2 系统的整体框架 | 第35-36页 |
3.3 前景提取模块 | 第36-39页 |
3.3.1 背景更新 | 第36-37页 |
3.3.2 预处理 | 第37-39页 |
3.4 特征数据获取模块 | 第39-42页 |
3.4.1 外接矩形框的去噪 | 第39-40页 |
3.4.2 数据的初提取 | 第40页 |
3.4.3 数据奇异点的去除 | 第40-41页 |
3.4.4 视频数据的重采样 | 第41-42页 |
3.5 DTW调整时序 | 第42页 |
3.6 训练模型 | 第42-45页 |
3.6.1 通过相应模型训练样本 | 第42-43页 |
3.6.2 GBDT改进模型 | 第43-45页 |
3.7 本章小结 | 第45-46页 |
第4章 肢体动作识别的实验结果与性能分析 | 第46-53页 |
4.1 开发环境和测试环境 | 第46页 |
4.1.1 视频采集工具的介绍 | 第46页 |
4.1.2 开发工具和测试工具的介绍 | 第46页 |
4.2 前景模块性能的测试 | 第46-50页 |
4.2.1 背景相差法的测试 | 第47-48页 |
4.2.2 帧间相差法的测试 | 第48-49页 |
4.2.3 混合高斯模型的测试 | 第49-50页 |
4.2.4 查准率的比较 | 第50页 |
4.3 识别算法性能的测试 | 第50-52页 |
4.3.1 识别算法测试数据 | 第50页 |
4.3.2 识别率的对比 | 第50-52页 |
4.4 实验结果分析 | 第52页 |
4.5 本章小结 | 第52-53页 |
结论 | 第53-54页 |
参考文献 | 第54-58页 |
攻读硕士学位期间发表的论文及其它成果 | 第58-60页 |
致谢 | 第60页 |