摘要 | 第3-4页 |
ABSTRACT | 第4页 |
第一章 绪论 | 第7-12页 |
1.1 表情合成研究的背景及意义 | 第7-8页 |
1.2 表情合成国内外研究现状 | 第8-9页 |
1.3 本文的主要研究思路 | 第9-10页 |
1.4 本文的结构安排 | 第10-12页 |
第二章 深度与彩色相机标定和人脸特征点提取 | 第12-26页 |
2.1 体感设备原理 | 第12-14页 |
2.1.1 体感设备的内部结构和外形 | 第12-13页 |
2.1.2 体感设备工作原理 | 第13-14页 |
2.1.3 使用Kinect采集人脸深度与彩色图像的优点 | 第14页 |
2.2 深度与彩色相机的校准 | 第14-20页 |
2.2.1 校准实验准备 | 第14-15页 |
2.2.2 彩色相机的内参数校准 | 第15-16页 |
2.2.3 深度相机的内参数校准 | 第16-17页 |
2.2.4 外参数和相对位置校准 | 第17-19页 |
2.2.5 校准结果 | 第19-20页 |
2.3 人脸识别和特征点坐标提取 | 第20-25页 |
2.3.1 Kinect人脸跟踪识别 | 第20-22页 |
2.3.2 人脸特征点坐标提取 | 第22-25页 |
2.4 深度与彩色人脸图像采集结果 | 第25-26页 |
第三章 基于特征点调整和纹理映射的三维人脸建模 | 第26-41页 |
3.1 特定三维人脸模型的生成方法 | 第26-30页 |
3.1.1 一般三维人脸模型的选取 | 第26-27页 |
3.1.2 基于特征点的人脸模型调整方法 | 第27-30页 |
3.2 基于全视角彩色人脸图像的纹理映射 | 第30-39页 |
3.2.1 全视角三维人脸纹理图像的合成方法 | 第31-36页 |
3.2.2 基于OpenGL和线性插值的人脸纹理映射方法 | 第36-39页 |
3.3 三维人脸建模实验结果 | 第39-41页 |
第四章 基于面部动作编码系统的人脸表情合成 | 第41-49页 |
4.1 面部动作编码系统 | 第41-43页 |
4.1.1 面部动作编码系统FACS的应用 | 第41-42页 |
4.1.2 动作单元AU编码 | 第42-43页 |
4.2 基于FACS的三维人脸表情合成 | 第43-47页 |
4.2.1 动作单元AU和FaceGen模型顶点对应关系 | 第43-44页 |
4.2.2 六种基本表情对应FaceGen模型顶点移动位置 | 第44-47页 |
4.3 三维人脸表情合成实验结果 | 第47-49页 |
第五章 软件设计实现和实验结果分析 | 第49-56页 |
5.1 软件开发环境配置 | 第49-50页 |
5.1.1 Kinect SDK开发环境配置 | 第49页 |
5.1.2 OpenGL开发环境配置 | 第49-50页 |
5.2 软件设计实现 | 第50-53页 |
5.2.1 软件界面设计 | 第50-51页 |
5.2.2 软件流程设计 | 第51-53页 |
5.3 实验结果分析 | 第53-56页 |
第六章 总结与展望 | 第56-57页 |
致谢 | 第57-58页 |
参考文献 | 第58-61页 |
作者简介及科研成果 | 第61页 |