基于Kinect 3D数据的声音—唇部映射系统的设计与实现
| 摘要 | 第4-5页 |
| Abstract | 第5页 |
| 第1章 绪论 | 第8-11页 |
| 1.1 研究背景 | 第8-9页 |
| 1.2 研究意义 | 第9-10页 |
| 1.3 论文组织结构 | 第10-11页 |
| 第2章 相关理论分析 | 第11-16页 |
| 2.1 相关理论 | 第11-12页 |
| 2.1.1 基于建模的方法 | 第11-12页 |
| 2.1.2 基于码本的方法 | 第12页 |
| 2.1.3 基于统计模型的方法 | 第12页 |
| 2.2 相关工作 | 第12-16页 |
| 2.2.1 关节-声学映射 | 第12-14页 |
| 2.2.2 声学-关节映射 | 第14-16页 |
| 第3章 声音-唇部映射系统 | 第16-36页 |
| 3.1 整体框架 | 第16-18页 |
| 3.1.1 训练过程 | 第16-17页 |
| 3.1.2 映射过程 | 第17页 |
| 3.1.3 唇部建模 | 第17-18页 |
| 3.2 数据录制 | 第18-21页 |
| 3.2.1 录制设备 | 第18-20页 |
| 3.2.2 语料选取 | 第20页 |
| 3.2.3 录制过程 | 第20-21页 |
| 3.3 数据预处理 | 第21-25页 |
| 3.3.1 数据样例 | 第21-22页 |
| 3.3.2 预处理过程 | 第22-25页 |
| 3.4 特征提取 | 第25-29页 |
| 3.4.1 语音信号特征 | 第25-28页 |
| 3.4.2 3D数据特征 | 第28-29页 |
| 3.5 映射方法 | 第29-36页 |
| 3.5.1 基于K平均算法的方法 | 第29-31页 |
| 3.5.2 基于高斯混合模型的方法 | 第31-36页 |
| 第4章 实验与分析 | 第36-56页 |
| 4.1 实验数据 | 第36页 |
| 4.2 评价准则 | 第36-37页 |
| 4.2.1 主观评价准则 | 第36-37页 |
| 4.2.2 客观评价准则 | 第37页 |
| 4.3 基于K平均算法的方法 | 第37-45页 |
| 4.3.1 主观评价 | 第37-38页 |
| 4.3.2 客观评价 | 第38-45页 |
| 4.4 基于高斯混合模型的方法 | 第45-53页 |
| 4.4.1 主观评价 | 第46-47页 |
| 4.4.2 客观评价 | 第47-53页 |
| 4.5 两种映射方法的比较 | 第53-55页 |
| 4.5.1 主观评价比较 | 第53-54页 |
| 4.5.2 客观评价比较 | 第54-55页 |
| 4.6 加入脸部轮廓 | 第55-56页 |
| 第5章 总结与展望 | 第56-58页 |
| 5.1 总结 | 第56页 |
| 5.2 展望 | 第56-58页 |
| 参考文献 | 第58-63页 |
| 发表论文和参加科研情况说明 | 第63-64页 |
| 致谢 | 第64-65页 |