数据驱动的实时人脸表情动画研究
摘要 | 第5-6页 |
abstract | 第6-7页 |
第一章 绪论 | 第10-16页 |
1.1 课题背景和研究意义 | 第10-11页 |
1.1.1 课题背景 | 第10页 |
1.1.2 课题研究意义 | 第10-11页 |
1.2 国内外技术现状 | 第11-12页 |
1.3 表情动画的应用 | 第12-14页 |
1.4 本文的主要研究内容及章节安排 | 第14-16页 |
第二章 人脸表情动画 | 第16-28页 |
2.1 基于二维图像的方法 | 第16-17页 |
2.1.1 基于单帧图像变形 | 第16-17页 |
2.1.2 基于关键帧插值变形 | 第17页 |
2.1.3 基于统计模型的变形 | 第17页 |
2.2 基于三维模型的方法 | 第17-19页 |
2.2.1 三维人脸建模 | 第18-19页 |
2.2.2 三维人脸动画 | 第19页 |
2.3 基于数据驱动的方法 | 第19-20页 |
2.4 基于网格变形的算法 | 第20-25页 |
2.4.1 基于径向基插值变形算法 | 第20-22页 |
2.4.2 基于特征点的最短路径算法 | 第22-23页 |
2.4.3 基于重心坐标插值的变形算法 | 第23-24页 |
2.4.4 基于拉普拉斯算子的变形算法 | 第24-25页 |
2.5 本章小结 | 第25-28页 |
第三章 单帧的三维人脸表情重建的实现 | 第28-44页 |
3.1 源模型数据捕捉 | 第29-31页 |
3.1.1 kinect简介 | 第30页 |
3.1.2 kinect工作原理 | 第30-31页 |
3.1.3 获取源模型网格数据 | 第31页 |
3.2 选取控制点 | 第31-34页 |
3.3 选取基本表情 | 第34-36页 |
3.4 目标模型建立 | 第36-37页 |
3.5 表情迁移 | 第37-40页 |
3.5.1 模型分区 | 第37-39页 |
3.5.2 表情重建 | 第39-40页 |
3.6 实验结果 | 第40-42页 |
3.7 本章小结 | 第42-44页 |
第四章 数据驱动实时的人脸表情动画的实现 | 第44-62页 |
4.1 人脸实时追踪 | 第44-48页 |
4.2 选取变形控制点 | 第48页 |
4.3 模型数据匹配 | 第48-49页 |
4.4 添加纹理 | 第49-50页 |
4.5 三维人脸表情重建 | 第50-54页 |
4.5.1 基于RBF的人脸表情重建 | 第50-51页 |
4.5.2 基于拉普拉斯的人脸表情重建 | 第51-53页 |
4.5.3 改进的径向基函数网络的人脸表情重建 | 第53-54页 |
4.6 分块融合 | 第54-55页 |
4.7 实验结果及讨论 | 第55-61页 |
4.8 本章小结 | 第61-62页 |
第五章 总结与展望 | 第62-66页 |
5.1 总结 | 第62-63页 |
5.2 展望 | 第63-66页 |
参考文献 | 第66-70页 |
攻读学位期间所取得的相关科研成果 | 第70-72页 |
致谢 | 第72-73页 |