摘要 | 第10-12页 |
ABSTRACT | 第12-14页 |
第1章 绪论 | 第15-27页 |
1.1 研究背景 | 第15-17页 |
1.2 研究现状和研究难点 | 第17-24页 |
1.2.1 头部姿态估计 | 第17-20页 |
1.2.2 基于视频的人体运动捕捉数据检索 | 第20-22页 |
1.2.3 步态识别 | 第22-24页 |
1.3 主要研究内容和创新点 | 第24-25页 |
1.4 组织结构 | 第25-27页 |
第2章 基于块能量图的头部姿态估计 | 第27-39页 |
2.1 相关工作 | 第27-29页 |
2.2 算法概述 | 第29-30页 |
2.3 头部姿态描述符 | 第30-31页 |
2.3.1 人脸区域检测 | 第30页 |
2.3.2 块能量图 | 第30-31页 |
2.4 头部姿态估计回归机 | 第31-34页 |
2.4.1 支持向量回归机 | 第32-33页 |
2.4.2 高斯过程回归机 | 第33-34页 |
2.5 实验分析 | 第34-37页 |
2.5.1 数据集以及实现细节 | 第34页 |
2.5.2 平均绝对误差比较 | 第34-36页 |
2.5.3 头部定位偏移的影响 | 第36-37页 |
2.6 本章小结 | 第37-39页 |
第3章 基于视频的人体运动捕捉数据检索 | 第39-53页 |
3.1 相关工作 | 第39-41页 |
3.2 算法概述 | 第41页 |
3.3 基于归一化的运动能量图的特征提取 | 第41-45页 |
3.3.1 归一化的运动能量图 | 第42-43页 |
3.3.2 增强的Gabor特征提取 | 第43-44页 |
3.3.3 判别性的向量提取 | 第44-45页 |
3.4 相似性度量 | 第45页 |
3.5 实验分析 | 第45-51页 |
3.5.1 数据库及算法性能评估 | 第46-48页 |
3.5.2 计算效率 | 第48-51页 |
3.6 本章小结 | 第51-53页 |
第4章 基于GEI子空间投影与联合描述分类的步态识别 | 第53-79页 |
4.1 相关工作 | 第54-58页 |
4.1.1 单视角步态识别 | 第54-56页 |
4.1.2 多视角步态识别 | 第56-57页 |
4.1.3 协作与非协作实验方式 | 第57页 |
4.1.4 分类方法 | 第57-58页 |
4.2 GSP-CRC方法概述 | 第58-59页 |
4.3 通过GEI子空间投影的特征提取方法 | 第59-62页 |
4.3.1 GEI判别性区域投影 | 第59-61页 |
4.3.2 PCA和LDA子空间投影 | 第61-62页 |
4.4 联合描述分类器 | 第62-63页 |
4.5 实验分析 | 第63-76页 |
4.5.1 步态数据集 | 第63-64页 |
4.5.2 在CASIA-B数据集上评估 | 第64-76页 |
4.5.2.1 侧视角情况下步态识别 | 第65-67页 |
4.5.2.2 多视角步态识别 | 第67-71页 |
4.5.2.3 非协作步态识别 | 第71-74页 |
4.5.2.4 计算效率 | 第74-75页 |
4.5.2.5 特征描述符相关问题讨论 | 第75-76页 |
4.5.3 CMU MoBo数据集上的实验评估 | 第76页 |
4.6 本章小结 | 第76-79页 |
第5章 基于稀疏变化字典学习的单样本步态识别 | 第79-89页 |
5.1 相关工作 | 第80-81页 |
5.2 算法概述 | 第81-82页 |
5.3 步态特征描述符 | 第82页 |
5.4 稀疏变化类型的字典学习 | 第82-84页 |
5.5 分类器 | 第84页 |
5.6 实验分析 | 第84-88页 |
5.7 本章小结 | 第88-89页 |
第6章 总结和展望 | 第89-93页 |
6.1 全文总结 | 第89-90页 |
6.2 工作展望 | 第90-93页 |
参考文献 | 第93-107页 |
致谢 | 第107-109页 |
攻读学位期间发表的学术论文目录 | 第109-111页 |
攻读学位期间参与科研项目情况 | 第111-113页 |
外文论文 | 第113-167页 |
学位论文评阅及答辩情况表 | 第167页 |