致谢 | 第6-8页 |
摘要 | 第8-11页 |
Abstract | 第11-13页 |
第1章 绪论 | 第19-39页 |
1.1 引言 | 第19-21页 |
1.2 研究现状和研究方法 | 第21-35页 |
1.2.1 混合样本人脸表情合成 | 第22-25页 |
1.2.2 直接表情迁移 | 第25-28页 |
1.2.3 基于sketch的人脸表情合成与编辑 | 第28-30页 |
1.2.4 基于机器学习的真实感人脸表情合成 | 第30-32页 |
1.2.5 高分辨率人脸表情与细节的提取与合成 | 第32-35页 |
1.3 本文的研究内容及论文组织 | 第35-37页 |
1.3.1 基于拉普拉斯的数据驱动人脸表情合成 | 第35-36页 |
1.3.2 基于测地距离与RBF插值的真实感人脸表情动画 | 第36页 |
1.3.3 基于时空的人脸表情动画编辑技术 | 第36页 |
1.3.4 基于二维形变的人脸表情编辑技术 | 第36-37页 |
1.3.5 本文组织 | 第37页 |
1.4 本章小结 | 第37-39页 |
第2章 基于拉普拉斯的数据驱动人脸表情合成 | 第39-57页 |
2.1 引言 | 第39-42页 |
2.2 脸部运动数据的采集与预处理 | 第42-48页 |
2.2.1 脸部运动数据的采集 | 第42-43页 |
2.2.2 运动捕获数据的比例匹配 | 第43-46页 |
2.2.3 脸部表情变化的提取 | 第46-48页 |
2.3 脸部表情迁移 | 第48-50页 |
2.3.1 拉普拉斯坐标的定义 | 第48-49页 |
2.3.2 拉普拉斯变形技术简介 | 第49页 |
2.3.3 基于拉普拉斯变形的脸部表情迁移 | 第49-50页 |
2.4 头部刚体运动迁移 | 第50-51页 |
2.5 实验结果与讨论 | 第51-54页 |
2.5.1 实验结果 | 第51-52页 |
2.5.2 比较与讨论 | 第52-54页 |
2.6 本章小结 | 第54-57页 |
第3章 基于测地距离的真实感人脸表情动画 | 第57-71页 |
3.1 引言 | 第57-58页 |
3.2 网格曲面上测地距离映射 | 第58-62页 |
3.2.1 网格曲面上距离场的定义 | 第58-59页 |
3.2.2 人脸模型上测地距离的快速计算 | 第59-62页 |
3.3 基于测地距离和RBF插值的人脸表情合成 | 第62-64页 |
3.4 实验结果与讨论 | 第64-68页 |
3.4.1 实验结果 | 第64-65页 |
3.4.2 比较与讨论 | 第65-68页 |
3.5 本章小结 | 第68-71页 |
第4章 基于时空的人脸表情动画编辑技术 | 第71-81页 |
4.1 引言 | 第71-73页 |
4.2 基于时空的人脸表情动画编辑技术 | 第73-76页 |
4.2.1 人脸表情编辑的空间域传播 | 第73-74页 |
4.2.2 人脸表情编辑的时间域传播 | 第74-76页 |
4.3 实验结果与比较 | 第76-79页 |
4.3.1 实验结果 | 第76-77页 |
4.3.2 比较与讨论 | 第77-79页 |
4.4 本章小结 | 第79-81页 |
第5章 基于二维形变的人脸表情编辑技术 | 第81-99页 |
5.1 引言 | 第81-82页 |
5.2 二维人脸模型的构造与表情编辑控制点的选取 | 第82-83页 |
5.3 二维人脸表情的编辑 | 第83-87页 |
5.3.1 无缩放限制的表情编辑 | 第83-85页 |
5.3.2 比例调整 | 第85-86页 |
5.3.3 人脸轮廓边长约束 | 第86-87页 |
5.4 实验结果与讨论 | 第87-88页 |
5.4.1 实验结果 | 第87页 |
5.4.2 分析与讨论 | 第87-88页 |
5.5 算法应用扩展 | 第88-97页 |
5.5.1 将展平的衣服映射到标准姿势人体模特 | 第89-90页 |
5.5.2 不同姿势人体模特下衣服的变形 | 第90-94页 |
5.5.3 应用示例 | 第94-97页 |
5.6 本章小结 | 第97-99页 |
第6章 总结与展望 | 第99-103页 |
6.1 本文总结 | 第99-101页 |
6.2 未来工作展望 | 第101-103页 |
参考文献 | 第103-111页 |
攻读博士学位期间主要的研究成果 | 第111-112页 |