汉语语音信号驱动虚拟人的研究
摘要 | 第6-7页 |
Abstract | 第7页 |
第1章 绪论 | 第11-19页 |
1.1 研究背景及意义 | 第11-12页 |
1.2 国内外研究现状 | 第12-15页 |
1.2.1 人体建模与动作合成的研究现状 | 第12-13页 |
1.2.2 人脸动画与驱动的研究现状 | 第13-15页 |
1.3 研究目标及内容 | 第15-16页 |
1.3.1 研究目标 | 第15页 |
1.3.2 研究内容 | 第15-16页 |
1.4 本研究的总体框架设计 | 第16-18页 |
1.5 本文结构安排 | 第18-19页 |
第2章 语音信号处理及特征参数的提取 | 第19-27页 |
2.1 语音信号预处理 | 第19-21页 |
2.2 特征参数分析 | 第21-22页 |
2.2.1 时域分析 | 第21-22页 |
2.2.2 频域分析 | 第22页 |
2.3 特征参数提取 | 第22-26页 |
2.4 本章小结 | 第26-27页 |
第3章 语音驱动虚拟人动作及人脸动画的实现 | 第27-39页 |
3.1 语音识别介绍 | 第27页 |
3.2 语音识别类的建立 | 第27-29页 |
3.3 语音识别模块的建立 | 第29-31页 |
3.4 虚拟人模型的建立 | 第31-32页 |
3.5 虚拟人动作的合成 | 第32-34页 |
3.5.1 BVH文件介绍 | 第33页 |
3.5.2 虚拟人动作合成 | 第33-34页 |
3.6 语音驱动聊天系统 | 第34-35页 |
3.6.1 系统的建立 | 第34页 |
3.6.2 语音驱动聊天系统的实现 | 第34-35页 |
3.7 语音驱动虚拟人人脸动画 | 第35-38页 |
3.7.1 虚拟人脸部模型 | 第36页 |
3.7.2 语音驱动虚拟人脸动画的实现 | 第36-38页 |
3.8 本章小结 | 第38-39页 |
第4章 实验结果分析 | 第39-48页 |
4.1 实验环境 | 第39页 |
4.2 实验结果 | 第39-45页 |
4.2.1 虚拟人聊天系统 | 第39-41页 |
4.2.2 虚拟人唇部动画与表情控制 | 第41-45页 |
4.3 结果分析 | 第45-47页 |
4.3.1 主观分析 | 第45-46页 |
4.3.2 客观评价 | 第46-47页 |
4.4 本章小结 | 第47-48页 |
结论 | 第48-49页 |
致谢 | 第49-51页 |
参考文献 | 第51-56页 |
攻读硕士学位期间发表的论文及科研成果 | 第56页 |