维吾尔语可视语音合成中声视同步和表情控制研究
摘要 | 第3-4页 |
Abstract | 第4-5页 |
第1章 绪论 | 第8-15页 |
1.1 研究背景及意义 | 第8-9页 |
1.2 国内外研究现状及难点 | 第9-14页 |
1.2.1 研究现状 | 第9-13页 |
1.2.2 难点 | 第13-14页 |
1.3 章节及内容安排 | 第14-15页 |
第2章 声视数据采集 | 第15-19页 |
2.1 研究目标、范围及方法的确定 | 第15-16页 |
2.2 文本语料的选取 | 第16-17页 |
2.3 音视频录制 | 第17页 |
2.4 数据质量保证 | 第17-18页 |
2.5 小结 | 第18-19页 |
第3章 数据分析与处理 | 第19-39页 |
3.1 声学数据分析 | 第19-34页 |
3.1.1 情感区分性特征计算 | 第20-33页 |
3.1.1.1 能量分析 | 第20-22页 |
3.1.1.2 基频分析 | 第22-24页 |
3.1.1.3 共振峰分析 | 第24-26页 |
3.1.1.4 线性谱频率(LSF)分析 | 第26-28页 |
3.1.1.5 梅尔倒谱系数 | 第28-31页 |
3.1.1.6 感知线性预测倒谱系数 PLPCC | 第31-33页 |
3.1.2 音素集建立 | 第33-34页 |
3.2 唇区数据处理 | 第34-38页 |
3.2.1 姿态矫正 | 第34-36页 |
3.2.2 维吾尔语唇区视位确定 | 第36-37页 |
3.2.3 维吾尔语情感视位确定 | 第37-38页 |
3.3 小结 | 第38-39页 |
第4章 同步模型 | 第39-46页 |
4.1 同步模型基本思想 | 第39页 |
4.2 段间相似性模型 | 第39-42页 |
4.3 基于 HMM 的音素识别 | 第42-45页 |
4.3.1 HMM 模型基本理论 | 第42-44页 |
4.3.2 HMM 训练与识别 | 第44-45页 |
4.4 小结 | 第45-46页 |
第5章 表情控制模型 | 第46-57页 |
5.1 表情控制模型基本思想 | 第46页 |
5.2 基本情感识别 | 第46-53页 |
5.2.1 常用情感识别方法 | 第47-49页 |
5.2.2 BP 神经网络(BPNN)理论 | 第49-52页 |
5.2.3 BPNN 的训练与识别 | 第52-53页 |
5.3 可视韵律表情调制模型 | 第53-56页 |
5.4 小结 | 第56-57页 |
第6章 实验与评估 | 第57-63页 |
6.1 可视语音合成 | 第57-58页 |
6.2 主客观评估 | 第58-63页 |
第7章 总结与展望 | 第63-65页 |
7.1 总结 | 第63-64页 |
7.2 展望 | 第64-65页 |
参考文献 | 第65-69页 |
致谢 | 第69-71页 |
硕士期间发表的论文 | 第71页 |