具有真实感的人脸口型动画研究
摘要 | 第6-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第12-22页 |
1.1 研究背景意义及应用领域 | 第12-14页 |
1.1.1 研究背景意义 | 第12-13页 |
1.1.2 研究应用领域 | 第13-14页 |
1.2 国内外研究现状 | 第14-19页 |
1.2.1 虚拟人脸部建模的研究现状 | 第14-15页 |
1.2.2 人脸动画驱动的研究现状 | 第15-17页 |
1.2.3 音素间协调发音建模的研究现状 | 第17-19页 |
1.3 研究目标及内容 | 第19-20页 |
1.3.1 研究目标 | 第19页 |
1.3.2 研究内容 | 第19-20页 |
1.4 课题总体框架设计 | 第20页 |
1.5 本文组织结构 | 第20-22页 |
第2章 真实感人脸模型的建立 | 第22-32页 |
2.1 人脸解剖学结构分析 | 第22-26页 |
2.1.1 人脸解剖学结构 | 第22-24页 |
2.1.2 标准Candide-3人脸参数模型 | 第24-26页 |
2.2 嘴部细节模型的构建 | 第26-29页 |
2.2.1 标准Candide-3唇部特征点分布 | 第26-27页 |
2.2.2 唇部特征点的增加与网格调整 | 第27-28页 |
2.2.3 特征点的深度信息提取 | 第28-29页 |
2.3 真实感人脸模型的构建 | 第29-31页 |
2.3.1 眼部特征点与索引调整 | 第29页 |
2.3.2 完整人脸模型建立 | 第29-30页 |
2.3.3 真实感人脸的构建与纹理贴图 | 第30-31页 |
2.4 本章小结 | 第31-32页 |
第3章 虚拟人嘴部的运动控制 | 第32-39页 |
3.1 嘴部肌肉的运动分析 | 第32-34页 |
3.1.1 嘴部肌肉的分布 | 第32-33页 |
3.1.2 嘴部子运动分类与相关性分析 | 第33-34页 |
3.1.3 嘴部口型的合成 | 第34页 |
3.2 嘴部的子运动控制模型 | 第34-38页 |
3.2.1 唇部肌肉运动控制模型 | 第34-37页 |
3.2.2 下颌骨开闭运动控制模型 | 第37-38页 |
3.3 本章小结 | 第38-39页 |
第4章 口型参数化与视觉权重函数 | 第39-52页 |
4.1 基础口型分类与参数化 | 第40-43页 |
4.1.1 基础口型的分类 | 第40-43页 |
4.1.2 基础口型的参数化 | 第43页 |
4.2 中文协同发音现象分析 | 第43-47页 |
4.2.1 汉语音节构成类型与特点 | 第44-45页 |
4.2.2 音素的影响等级与受影响等级 | 第45-46页 |
4.2.3 音素间协同发音现象 | 第46-47页 |
4.3 音素间视觉权重函数 | 第47-51页 |
4.3.1 辅音-元音音素视觉权重函数 | 第47-49页 |
4.3.2 元音-元音音素视觉权重函数 | 第49-50页 |
4.3.3 关键帧的合成 | 第50-51页 |
4.4 本章小结 | 第51-52页 |
第5章 实验结果与效果评估 | 第52-63页 |
5.1 系统总体设计 | 第52-54页 |
5.1.1 系统总体框图 | 第52-53页 |
5.1.2 系统界面设计 | 第53页 |
5.1.3 语音合成与口型动画匹配 | 第53-54页 |
5.2 嘴部运动控制结果与分析 | 第54-57页 |
5.2.1 下颌骨旋转模型 | 第55页 |
5.2.2 唇部运动控制模型 | 第55-57页 |
5.3 口型合成的实验效果与分析 | 第57-61页 |
5.3.1 视觉权重函数的实验结果分析 | 第57-59页 |
5.3.2 真实人脸口型动画的客观评价 | 第59-61页 |
5.4 真实人脸表情的合成 | 第61页 |
5.4.1 合成个性化人脸表情的效果 | 第61页 |
5.5 本章小结 | 第61-63页 |
结论 | 第63-64页 |
致谢 | 第64-65页 |
参考文献 | 第65-70页 |
攻读硕士学位期间发表的论文及科研成果 | 第70页 |