实时语音同步的三维虚拟人表情和动作的研究
摘要 | 第6-7页 |
Abstract | 第7页 |
第1章 绪论 | 第11-18页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-15页 |
1.2.1 三维人脸建模与表情合成研究现状 | 第12-13页 |
1.2.2 虚拟人眼部和头部行为仿真的研究现状 | 第13-15页 |
1.2.3 语音与人脸表情动画的同步研究现状 | 第15页 |
1.3 研究目标及内容 | 第15-16页 |
1.3.1 研究目标 | 第15-16页 |
1.3.2 研究内容 | 第16页 |
1.4 本文组织结构 | 第16-18页 |
第2章 真实感面部表情的合成 | 第18-26页 |
2.1 Blendshape表情基自动生成 | 第18-20页 |
2.1.1 优化Blendshape表情基 | 第19-20页 |
2.1.2 优化混合权重 | 第20页 |
2.2 基于表情基的多表情融合变形 | 第20-22页 |
2.3 面部动画标记语言 | 第22-23页 |
2.4 动态表情的仿真 | 第23-25页 |
2.5 本章小结 | 第25-26页 |
第3章 虚拟人眼部和头部行为分析与仿真 | 第26-35页 |
3.1 眨眼 | 第26-29页 |
3.2 视线转移 | 第29-34页 |
3.2.1 眼球运动的实现 | 第30-33页 |
3.2.2 头动的实现 | 第33-34页 |
3.3 本章小结 | 第34-35页 |
第4章 情感语音合成及与动态表情的同步 | 第35-43页 |
4.1 情感语音合成 | 第35-39页 |
4.1.1 交互式遗传算法 | 第36页 |
4.1.2 情感语音合成的实现 | 第36-39页 |
4.2 面部运动元素的融合 | 第39-40页 |
4.3 语音与动态表情的同步 | 第40-42页 |
4.4 本章小结 | 第42-43页 |
第5章 系统设计与实验分析 | 第43-59页 |
5.1 系统总体设计 | 第43-45页 |
5.1.1 总体设计框图 | 第43-44页 |
5.1.2 功能模块图 | 第44-45页 |
5.2 系统界面及各部分介绍 | 第45-49页 |
5.2.1 系统界面 | 第45页 |
5.2.2 各模块介绍 | 第45-49页 |
5.3 实验结果与分析 | 第49-58页 |
5.3.1 眼部和头部运动的实验结果与分析 | 第49-51页 |
5.3.2 情感语音合成效果的评估与分析 | 第51-53页 |
5.3.3 动态面部表情的仿真结果及分析 | 第53-54页 |
5.3.4 语音与动态表情的同步测试与分析 | 第54-55页 |
5.3.5 顶点法线的实验结果与分析 | 第55-57页 |
5.3.6 虚拟说话人的整体协同效果与分析 | 第57-58页 |
5.4 本章小结 | 第58-59页 |
结论 | 第59-61页 |
致谢 | 第61-62页 |
参考文献 | 第62-67页 |
攻读硕士学位期间发表的论文及科研成果 | 第67页 |