融合RGB-D视频中多模态特征的人体行为识别
摘要 | 第4-5页 |
Abstract | 第5-6页 |
专用术语注释表 | 第9-10页 |
第一章 绪论 | 第10-14页 |
1.1 研究背景和意义 | 第10-12页 |
1.2 研究中面临的挑战 | 第12-13页 |
1.3 研究内容与论文结构 | 第13-14页 |
第二章 人体行为识别的相关工作与基本概念 | 第14-25页 |
2.1 人体行为识别中的特征提取 | 第14-22页 |
2.1.1 基于 2D数据的特征提取 | 第14-18页 |
2.1.2 基于RGB-D数据的特征提取 | 第18-21页 |
2.1.3 常用的特征优化处理方法 | 第21-22页 |
2.2 人体行为识别中的分类模型 | 第22-24页 |
2.2.1 用于时序特征向量的分类方法 | 第22-23页 |
2.2.2 固定维度特征向量的分类方法 | 第23-24页 |
2.3 本章小结 | 第24-25页 |
第三章 多模态人体行为识别系统框架 | 第25-39页 |
3.1 多模态人体行为识别框架概览 | 第25-26页 |
3.2 多模态人体行为识别相关模块 | 第26-32页 |
3.2.1 多模态低层特征 | 第26-30页 |
3.2.2 多模态特征融合 | 第30-31页 |
3.2.3 多模态判决模型 | 第31-32页 |
3.3 多模态相关数据集简介 | 第32-38页 |
3.3.1 常用数据集介绍 | 第32-34页 |
3.3.2 数据预处理操作 | 第34-38页 |
3.4 本章小节 | 第38-39页 |
第四章 RGB-D视频行为动作多模态特征提取 | 第39-62页 |
4.1 人体行为低层运动视觉特征提取 | 第39-44页 |
4.1.1 人体骨架信息预处理 | 第39-43页 |
4.1.2 基于骨架信息的DenseMP特征 | 第43-44页 |
4.2 人体行为低层外观视觉特征提取 | 第44-52页 |
4.2.1 基于点云信息的SHOPC特征 | 第44-50页 |
4.2.2 基于RGB信息的HOG3D特征 | 第50-52页 |
4.3 实验过程与分析 | 第52-60页 |
4.3.1 DenseMP特征有效性验证 | 第52-58页 |
4.3.2 SHOPC特征有效性验证 | 第58-60页 |
4.4 本章小结 | 第60-62页 |
第五章 基于多核超限学习机和贪婪思想的分类模型 | 第62-100页 |
5.1 ELM模型简介 | 第62-77页 |
5.1.1 ELM模型 | 第62-70页 |
5.1.2 MKL-ELM模型 | 第70-77页 |
5.2 Exemplars-MKL-ELM模型 | 第77-84页 |
5.2.1 Exemplars-SVM | 第77-78页 |
5.2.2 Exemplar-MKL-ELM | 第78-84页 |
5.3 贪婪式分层分类预测策略 | 第84-87页 |
5.3.1 双层分类预测策略 | 第84-86页 |
5.3.2 MK-KNN算法 | 第86-87页 |
5.4 实验过程与分析 | 第87-99页 |
5.4.1 判决模型有效性验证 | 第87-94页 |
5.4.2 特征融合有效性验证 | 第94-99页 |
5.5 本章小结 | 第99-100页 |
第六章 总结与展望 | 第100-103页 |
6.1 工作总结 | 第100-101页 |
6.2 研究展望 | 第101-103页 |
参考文献 | 第103-107页 |
附录1攻读硕士学位期间申请的专利 | 第107-108页 |
致谢 | 第108页 |