基于运动视频的情绪提取方法研究
| 摘要 | 第4-5页 |
| ABSTRACT | 第5页 |
| 第一章 绪论 | 第8-11页 |
| 1.1 研究意义与背景 | 第8页 |
| 1.2 国内外发展现状 | 第8-9页 |
| 1.3 本文工作和创新点 | 第9-10页 |
| 1.4 文章的组织结构 | 第10-11页 |
| 第二章 动作识别及情绪提取技术综述 | 第11-18页 |
| 2.1 人体动作识别方法简述 | 第11-12页 |
| 2.1.1 基于概率统计的方法 | 第11-12页 |
| 2.1.2 基于模型的方法 | 第12页 |
| 2.1.3 基于语法的方法 | 第12页 |
| 2.2 视频运动目标检测技术综述 | 第12-15页 |
| 2.2.1 背景减除法 | 第12-14页 |
| 2.2.2 光流法 | 第14-15页 |
| 2.3 情绪提取技术 | 第15-17页 |
| 2.4 本章小结 | 第17-18页 |
| 第三章 人类动作情绪映射关系模型构建 | 第18-26页 |
| 3.1 人类情绪集合建立 | 第18页 |
| 3.2 人体建模及情绪相关参数 | 第18-23页 |
| 3.2.1 人体建模 | 第19-20页 |
| 3.2.2 人体动作与情绪关系 | 第20-23页 |
| 3.3 情绪的参数表达 | 第23-25页 |
| 3.3.1 静态姿态特征的参数表达 | 第23-24页 |
| 3.3.2 动态运动特征的参数表达 | 第24-25页 |
| 3.3.3 情绪分类 | 第25页 |
| 3.4 本章小结 | 第25-26页 |
| 第四章 基于运动视频动作特征提取 | 第26-37页 |
| 4.1 动作识别 | 第26-29页 |
| 4.2 关节点提取 | 第29-31页 |
| 4.3 基于光流法的关节点跟踪 | 第31-32页 |
| 4.4 实验结果及分析 | 第32-36页 |
| 4.4.1 动作识别结果分析 | 第33-34页 |
| 4.4.2 关节点提取及跟踪实验 | 第34-36页 |
| 4.5 本章小结 | 第36-37页 |
| 第五章 基于运动特征的情绪信息提取 | 第37-47页 |
| 5.1 静态姿态特征提取 | 第37-40页 |
| 5.1.1 计算重心倾斜状态 | 第37-38页 |
| 5.1.2 刚体部位的相关参数 | 第38-40页 |
| 5.2 动态运动特征提取 | 第40-41页 |
| 5.3 情绪提取 | 第41-42页 |
| 5.4 实验结果及分析 | 第42-46页 |
| 5.5 本章小结 | 第46-47页 |
| 第六章 总结与展望 | 第47-48页 |
| 6.1 本文工作总结 | 第47页 |
| 6.2 未来工作展望 | 第47-48页 |
| 参考文献 | 第48-52页 |
| 发表论文和参加科研情况说明 | 第52-53页 |
| 致谢 | 第53-54页 |