基于时空兴趣点的深度视频人体动作识别研究
摘要 | 第1-5页 |
Abstract | 第5-7页 |
目录 | 第7-9页 |
图目录 | 第9-11页 |
表目录 | 第11-12页 |
第一章 引言 | 第12-22页 |
·研究背景及意义 | 第12-13页 |
·国内外研究现状 | 第13-20页 |
·基于可见光的动作识别 | 第14-15页 |
·基于深度视频的行为识别 | 第15-17页 |
·基于可见光与深度融合的行为识别 | 第17-18页 |
·动作识别方法总结 | 第18-20页 |
·MSRAction3D 动作数据库介绍 | 第20-21页 |
·本文的贡献 | 第21页 |
·本文的组织 | 第21-22页 |
第二章 基于时空兴趣点的行为识别框架与流程 | 第22-24页 |
·系统框架 | 第22页 |
·算法框架 | 第22-23页 |
·本章小结 | 第23-24页 |
第三章 基于局部与全局特征融合的行为识别 | 第24-42页 |
·系统识别框架 | 第24-26页 |
·时空兴趣点提取 | 第26-27页 |
·三维时空立方体特征描述子 | 第27-31页 |
·SIFT3D 三维时空描述子 | 第27-28页 |
·HOG3D 三维时空描述子 | 第28-31页 |
·Kmeans 聚类算法 | 第31页 |
·投票算法 | 第31-32页 |
·基于全局的 DMM 特征 | 第32-33页 |
·动作识别方法 | 第33-36页 |
·带后验概率输出的 SVM 分类器 | 第33-36页 |
·特征融合方法 | 第36页 |
·实验结果分析 | 第36-40页 |
·本章小结 | 第40-42页 |
第四章 基于高维检索树的行为识别 | 第42-56页 |
·系统识别框架 | 第42-43页 |
·时空兴趣点位置的归一化 | 第43-46页 |
·人体关节点的提取 | 第43-45页 |
·时空兴趣点的提取 | 第45页 |
·兴趣点归一化算法 | 第45-46页 |
·局部能量特征的提取 | 第46-47页 |
·最近邻分类器介绍 | 第47页 |
·高维检索树介绍 | 第47-48页 |
·实验结果分析 | 第48-53页 |
·不同模型间的准确率对比 | 第53-54页 |
·本文提出的两种方法对比 | 第54-55页 |
·本章小结 | 第55-56页 |
第五章 结束语 | 第56-58页 |
·本文工作总结 | 第56-57页 |
·技术应用与展望 | 第57-58页 |
参考文献 | 第58-62页 |
致谢 | 第62-64页 |
作者简介及论文、专利,科研项目 | 第64页 |