汉语发音的唇形可视化处理方法研究
摘要 | 第3-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第9-22页 |
1.1 可视语音的研究意义 | 第9-10页 |
1.2 可视语音的研究现状 | 第10-20页 |
1.2.1 人脸建模的方法 | 第12-18页 |
1.2.2 可视语音的驱动方式 | 第18-20页 |
1.3 论文的主要内容和章节安排 | 第20-22页 |
第二章 唇形可视化处理 | 第22-34页 |
2.1 唇形可视化的相关工具 | 第22-27页 |
2.1.1 SAPI语音开发上具包 | 第22-23页 |
2.1.2 OpenCV开发库 | 第23-25页 |
2.1.3 OpenGL开发库 | 第25-27页 |
2.2 人脸图像形变方法 | 第27-29页 |
2.3 Waters的向量肌肉模型 | 第29-31页 |
2.4 BP神经网络原理 | 第31-33页 |
2.5 本章小结 | 第33-34页 |
第三章 文本分析方法 | 第34-44页 |
3.1 汉语发音的特点及视位分类 | 第34-39页 |
3.1.1 汉语发音的特点 | 第34-36页 |
3.1.2 汉语发音的视位分类 | 第36-39页 |
3.2 中文视位序列 | 第39-42页 |
3.2.1 中文视位序列的获取 | 第39-41页 |
3.2.2 中文视位序列的时长分配 | 第41-42页 |
3.3 合成语音与视位序列的同步 | 第42-43页 |
3.4 本章小结 | 第43-44页 |
第四章 唇形动画的合成 | 第44-63页 |
4.1 基于图像形变的二维唇形动画 | 第44-52页 |
4.1.1 视频数据采集 | 第44页 |
4.1.2 视位图像形变 | 第44-51页 |
4.1.3 基于图像形变的合成结果 | 第51-52页 |
4.2 基于参数化建模方法 | 第52-62页 |
4.2.1 模型数据的获取 | 第53-54页 |
4.2.2 唇形参数建模思想 | 第54-55页 |
4.2.3 唇区子运动建模 | 第55-58页 |
4.2.4 实验结果 | 第58-62页 |
4.3 本章小结 | 第62-63页 |
第五章 基于BP神经网络的汉语发音唇形动画 | 第63-76页 |
5.1 语音特征参数的提取 | 第63-66页 |
5.2 唇形特征与视位关系 | 第66-69页 |
5.3 建立BP神经网络模型的学习训练 | 第69-73页 |
5.4 唇形动画的实现 | 第73-74页 |
5.5 实验结果及分析 | 第74-76页 |
第六章 总结与展望 | 第76-79页 |
参考文献 | 第79-82页 |
攻读硕士学位期间发表的论文目录 | 第82-83页 |
致谢 | 第83-84页 |