| 中文摘要 | 第4-5页 |
| abstract | 第5页 |
| 第一章 绪论 | 第8-10页 |
| 1.1 课题背景 | 第8-9页 |
| 1.2 本文研究内容 | 第9页 |
| 1.3 全文安排 | 第9-10页 |
| 第二章 国内外研究现状 | 第10-24页 |
| 2.1 生理模型 | 第10-12页 |
| 2.2 基于统计的映射模型 | 第12-20页 |
| 2.2.1 基于隐马尔可夫的映射模型(HMM) | 第13-15页 |
| 2.2.2 基于人工神经网络的映射模型(ANN) | 第15-18页 |
| 2.2.3 基于高斯混合的映射模型GMM | 第18-20页 |
| 2.3 电磁发音仪EMA | 第20-22页 |
| 2.4 超声采集系统 | 第22-23页 |
| 2.5 本章小结 | 第23-24页 |
| 第三章 基于深度学习框架的映射模型 | 第24-41页 |
| 3.1 映射框架的介绍 | 第24-25页 |
| 3.2 数据采集 | 第25-30页 |
| 3.2.1 超声采集系统 | 第27-29页 |
| 3.2.2 唇部视频采集系统 | 第29-30页 |
| 3.3 超声图像特征提取 | 第30-35页 |
| 3.3.1 主成分分析PCA | 第31-32页 |
| 3.3.2 深度自编码网络Deep Autoencoder | 第32-35页 |
| 3.4 语音信号特征提取 | 第35-38页 |
| 3.4.1 Mel倒谱系数MFCC | 第35-36页 |
| 3.4.2 线性预测系数LPC | 第36页 |
| 3.4.3 基于深度学习框架的语音特征提取 | 第36-38页 |
| 3.5 映射方法介绍 | 第38-40页 |
| 3.5.1 Stacked Denosing Autoencoder | 第39-40页 |
| 3.6 本章小结 | 第40-41页 |
| 第四章 发音器官运动合成语音信号 | 第41-43页 |
| 第五章 语音驱动发音器官运动可视化 | 第43-47页 |
| 第六章 网络参数对映射效果的影响 | 第47-52页 |
| 6.1 不同隐含层数 | 第47-48页 |
| 6.2 不同隐含层结点数 | 第48-49页 |
| 6.3 初始化中RBM迭代次数 | 第49页 |
| 6.4 监督训练的迭代次数 | 第49-50页 |
| 6.5 本章小结 | 第50-52页 |
| 第七章 基于中文连续语音的映射关系研究 | 第52-57页 |
| 7.1 语料的选取 | 第52-53页 |
| 7.2 语音驱动发音器官运动可视化 | 第53-56页 |
| 7.3 本章小结 | 第56-57页 |
| 第八章 论文总结展望 | 第57-59页 |
| 8.1 论文总结 | 第57-58页 |
| 8.2 展望 | 第58-59页 |
| 参考文献 | 第59-62页 |
| 发表论文和参加科研情况说明 | 第62-63页 |
| 致谢 | 第63-64页 |