摘要 | 第4-5页 |
ABSTRACT | 第5页 |
第一章 绪论 | 第8-14页 |
1.1 研究背景和意义 | 第8页 |
1.2 国内外研究现状 | 第8-10页 |
1.3 研究思路 | 第10-12页 |
1.4 系统概述 | 第12-14页 |
第二章 基于Kinect相机的深度图像采集 | 第14-22页 |
2.1 Kinect相机的外部结构及内部构成 | 第14-16页 |
2.2 人脸图像的采集原理 | 第16-18页 |
2.3 深度图像的采集及预处理 | 第18-21页 |
2.3.1 深度图像采集 | 第18-19页 |
2.3.2 深度图像预处理 | 第19-21页 |
2.4 本章小结 | 第21-22页 |
第三章 三维人脸建模和面部特征点标定 | 第22-33页 |
3.1 三维人脸建模 | 第22-28页 |
3.1.1 视频中人脸建模 | 第22-24页 |
3.1.2 卡通人脸建模 | 第24-28页 |
3.2 面部特征点的标定 | 第28-32页 |
3.2.1 视频中面部特征点标定 | 第28-30页 |
3.2.2 卡通人脸面部特征点标定 | 第30-32页 |
3.3 本章小节 | 第32-33页 |
第四章 人脸表情动画的算法研究 | 第33-46页 |
4.1 基于面部特征点的映射 | 第33-34页 |
4.2 视频人脸与卡通人脸的对齐 | 第34-37页 |
4.2.1 整体变形 | 第34-36页 |
4.2.2 局部变形 | 第36-37页 |
4.3 基于改进的拉普拉斯变形的人脸表情合成技术 | 第37-45页 |
4.3.1 Bézier曲线约束 | 第38-40页 |
4.3.2 真实人脸的三维拓扑模型的拉普拉斯坐标定义 | 第40-42页 |
4.3.3 拉普拉斯坐标的权值及几何意义 | 第42-43页 |
4.3.4 基于拉普拉斯坐标的人脸表情重建 | 第43-45页 |
4.4 本章小结 | 第45-46页 |
第五章 实时人脸表情动画的实现 | 第46-55页 |
5.1 实时人脸动画的硬件组成与软件实现 | 第46-50页 |
5.1.1 硬件系统组成 | 第46页 |
5.1.2 软件系统界面设计 | 第46-47页 |
5.1.3 软件系统操作流程 | 第47-48页 |
5.1.4 系统程序流程设计 | 第48-50页 |
5.2 实验结果分析 | 第50-55页 |
5.2.1 本文实验结果 | 第50-51页 |
5.2.2 实验结果分析 | 第51-55页 |
第六章 总结与展望 | 第55-57页 |
6.1 总结 | 第55-56页 |
6.2 展望 | 第56-57页 |
致谢 | 第57-58页 |
参考文献 | 第58-60页 |
攻读硕士期间的科研成果 | 第60页 |