基于深度学习的小尺度单元拼接语音合成方法研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第13-21页 |
1.1 语音合成研究背景 | 第13-15页 |
1.2 主流的语音合成方法 | 第15-18页 |
1.2.1 源-滤波器语音合成方法 | 第15-16页 |
1.2.2 统计参数语音合成方法 | 第16-17页 |
1.2.3 单元挑选与波形拼接语音合成方法 | 第17-18页 |
1.3 本论文的研究目标与内容 | 第18-19页 |
1.4 本论文的结构安排 | 第19-21页 |
第2章 基于HMM的帧拼接语音合成方法 | 第21-31页 |
2.1 HMM简介 | 第21-23页 |
2.1.1 隐马尔科夫模型(HMM) | 第21-23页 |
2.1.2 HMM用于语音合成声学建模 | 第23页 |
2.2 基于HMM的参数语音合成方法 | 第23-24页 |
2.2.1 模型训练 | 第23-24页 |
2.2.2 后端合成 | 第24页 |
2.3 基于HMM的帧拼接语音合成方法 | 第24-28页 |
2.3.1 基于决策树的单元预选 | 第26-27页 |
2.3.2 基于生成参数的目标代价计算 | 第27页 |
2.3.3 结合参数模型的维特比路径搜索 | 第27页 |
2.3.4 单元拼接 | 第27-28页 |
2.4 基于HMM的帧拼接语音合成方法的特点 | 第28-29页 |
2.4.1 优点 | 第28-29页 |
2.4.2 不足 | 第29页 |
2.4.3 本文研究的出发点 | 第29页 |
2.5 本章小结 | 第29-31页 |
第3章 基于深度神经网络的帧拼接语音合成方法研究 | 第31-43页 |
3.1 深度神经网络简介 | 第31-33页 |
3.1.1 神经网络结构 | 第31-32页 |
3.1.2 深度神经网络用于语音合成声学建模 | 第32-33页 |
3.2 基于深度神经网络的帧拼接合成方法 | 第33-36页 |
3.2.1 基于深度神经网络的目标代价计算 | 第33-34页 |
3.2.2 基于深度神经网络的连接代价计算 | 第34-36页 |
3.2.3 结合目标代价和连接代价的最优路径选择 | 第36页 |
3.3 实验 | 第36-41页 |
3.3.1 实验配置和系统构建 | 第37-39页 |
3.3.2 实验结果及分析 | 第39-41页 |
3.4 本章小结 | 第41-43页 |
第4章 基于递归神经网络的小尺度单元拼接方法研究 | 第43-51页 |
4.1 递归神经网络简介 | 第43-45页 |
4.1.1 递归神经网络结构 | 第43-44页 |
4.1.2 长短时记忆单元 | 第44-45页 |
4.2 基于LSTM-RNN的目标代价计算 | 第45页 |
4.3 基于LSTM-RNN的连接代价计算 | 第45-46页 |
4.4 多帧挑选的单元拼接方法 | 第46-47页 |
4.4.1 多帧单元的生成 | 第46-47页 |
4.4.2 多帧单元的挑选 | 第47页 |
4.5 实验 | 第47-50页 |
4.5.1 实验配置和系统构建 | 第47-49页 |
4.5.2 实验结果及分析 | 第49-50页 |
4.6 本章小结 | 第50-51页 |
第5章 结合单元挑选激励生成的参数合成方法研究 | 第51-59页 |
5.1 方法概述 | 第51-52页 |
5.2 特征波形提取 | 第52-53页 |
5.3 特征波形的参数化与声学建模 | 第53-54页 |
5.4 基于单元挑选的特征波形与语音生成 | 第54-55页 |
5.5 实验 | 第55-58页 |
5.5.1 实验配置和系统构建 | 第55-56页 |
5.5.2 实验结果及分析 | 第56-58页 |
5.6 本章小结 | 第58-59页 |
第6章 总结与展望 | 第59-61页 |
参考文献 | 第61-65页 |
致谢 | 第65-67页 |
在读期间发表的学术论文与取得的研究成果 | 第67-68页 |