| 摘要 | 第5-6页 |
| Abstract | 第6-7页 |
| 第1章 绪论 | 第11-20页 |
| 1.1 课题的背景和研究意义 | 第11-12页 |
| 1.1.1 人脸姿态跟踪简介 | 第11页 |
| 1.1.2 人脸姿态跟踪意义 | 第11-12页 |
| 1.2 国内外研究现状 | 第12-16页 |
| 1.2.1 基于特征的人脸姿态估计 | 第13-14页 |
| 1.2.2 基于模型的人脸姿态估计 | 第14-16页 |
| 1.3 本文主要研究内容和创新点 | 第16-17页 |
| 1.4 本文组织结构 | 第17-20页 |
| 第2章 人脸姿态跟踪相关背景知识 | 第20-28页 |
| 2.1 摄像机透视投影模型 | 第20-23页 |
| 2.1.1 齐次坐标 | 第20页 |
| 2.1.2 摄像机内部参数 | 第20-22页 |
| 2.1.3 摄像机外部参数 | 第22-23页 |
| 2.2 通用人脸三维模型介绍 | 第23页 |
| 2.3 人脸的旋转运动表示 | 第23-25页 |
| 2.3.1 旋转运动的欧拉角表示方法 | 第24页 |
| 2.3.2 旋转运动的矩阵表示方法 | 第24-25页 |
| 2.3.3 四元数和四元数的“差” | 第25页 |
| 2.4 对极几何 | 第25-26页 |
| 2.4.1 对极几何简介 | 第25-26页 |
| 2.4.2 单应性矩阵 | 第26页 |
| 2.5 本章小结 | 第26-28页 |
| 第3章 ASM人脸特征提取和帧间姿态跟踪 | 第28-44页 |
| 3.1 引言 | 第28页 |
| 3.2 基于ASM的人脸特征提取 | 第28-34页 |
| 3.2.1 ASM模型训练阶段 | 第28-31页 |
| 3.2.2 ASM图像搜索匹配 | 第31-34页 |
| 3.3 帧间姿态跟踪 | 第34-38页 |
| 3.3.1 类正面平行帧的初始化 | 第34页 |
| 3.3.2 人脸姿态参数迭代求精 | 第34-38页 |
| 3.4 鲁棒的姿态估计 | 第38-42页 |
| 3.4.1 融合关键帧和前邻帧的姿态估计 | 第38-41页 |
| 3.4.2 RANSAC框架下的鲁棒姿态估计 | 第41-42页 |
| 3.4.3 RANSAC框架下姿态参数求取的基本步骤 | 第42页 |
| 3.5 实验结果及分析 | 第42-43页 |
| 3.6 本章小结 | 第43-44页 |
| 第4章 基于SIFT特征描述符的注册算法 | 第44-58页 |
| 4.1 SIFT特征提取 | 第44-49页 |
| 4.1.1 构建尺度空间 | 第44-47页 |
| 4.1.2 DOG空间极值点检测 | 第47页 |
| 4.1.3 关键点定位和主方向确定 | 第47-49页 |
| 4.1.4 关键点特征描述符 | 第49页 |
| 4.2 改进的SIFT人脸特征提取 | 第49-51页 |
| 4.2.1 主成分局部描述符PC-SIFT | 第49-51页 |
| 4.3 SIFT特征匹配 | 第51页 |
| 4.4 实验结果与分析 | 第51-54页 |
| 4.5 深度信息的获取 | 第54-57页 |
| 4.6 本章小结 | 第57-58页 |
| 第5章 基于动态视角表观模型的误差累积消除 | 第58-65页 |
| 5.1 自适应反馈人脸检测 | 第58-59页 |
| 5.2 动态视角表观模型 | 第59-62页 |
| 5.2.1 关键帧数据结构 | 第59-60页 |
| 5.2.2 关键帧选择策略 | 第60-61页 |
| 5.2.3 关键帧在线制作 | 第61-62页 |
| 5.3 跟踪失败后自动初始化 | 第62页 |
| 5.4 实验结果和分析 | 第62-64页 |
| 5.5 本章小结 | 第64-65页 |
| 总结和展望 | 第65-68页 |
| 参考文献 | 第68-73页 |
| 附录A (3D人脸姿态跟踪系统实现部分代码) | 第73-81页 |
| 致谢 | 第81页 |