| 摘要 | 第1-6页 |
| Abstract | 第6-11页 |
| 第1章 绪论 | 第11-16页 |
| ·论文背景及研究意义 | 第11页 |
| ·研究现状 | 第11-13页 |
| ·国内外研究现状 | 第11-13页 |
| ·存在问题 | 第13页 |
| ·可视语音的应用 | 第13-14页 |
| ·本文的主要工作和研究内容 | 第14-15页 |
| ·论文的结构安排 | 第15-16页 |
| 第2章 可视语音合成技术 | 第16-25页 |
| ·可视语音合成方法 | 第16-18页 |
| ·基于参数控制的方法 | 第17-18页 |
| ·基于数据驱动的方法 | 第18页 |
| ·MPEG-4 人脸动画规范 | 第18-22页 |
| ·人脸定义参数FDP | 第20页 |
| ·人脸动画参数FAP | 第20-21页 |
| ·人脸动画参数单元FAPU | 第21-22页 |
| ·系统结构设计 | 第22-24页 |
| ·功能设计 | 第22-23页 |
| ·开发平台 | 第23-24页 |
| ·本章小结 | 第24-25页 |
| 第3章 人脸模型的建立 | 第25-47页 |
| ·标准人脸建模方法 | 第25-28页 |
| ·基于参数的模型(Parameterized Model) | 第25-26页 |
| ·基于物理形变的模型(Physics-based Model) | 第26-28页 |
| ·特定人脸建模方法 | 第28-30页 |
| ·基于三维散乱点数据的建模方法 | 第29页 |
| ·基于图像的人脸建模方法 | 第29-30页 |
| ·特定人脸模型的改进方法 | 第30-36页 |
| ·三维人脸模型的建立 | 第30-31页 |
| ·特定人脸模型的改进 | 第31-33页 |
| ·实验结果与分析 | 第33-36页 |
| ·人脸特征点的选取 | 第36-39页 |
| ·脸部模型的肌肉抽象化方法 | 第39-46页 |
| ·脸部生理结构 | 第39-41页 |
| ·嘴部网格模型肌肉化 | 第41-42页 |
| ·基于抽象肌肉的网格变形法 | 第42-46页 |
| ·本章小结 | 第46-47页 |
| 第4章 输入文本分析 | 第47-59页 |
| ·文本分析(Text analysis) | 第47-48页 |
| ·基本拼音口型库 | 第48-50页 |
| ·汉字-拼音映射 | 第50-52页 |
| ·汉字发音时长计算 | 第52-53页 |
| ·表情处理 | 第53-56页 |
| ·表情标签(expression tag) | 第53-54页 |
| ·可视帧间过渡处理 | 第54-56页 |
| ·实验结果与分析 | 第56-58页 |
| ·本章小结 | 第58-59页 |
| 第5章 协同发音的研究 | 第59-70页 |
| ·协同发音处理 | 第59-64页 |
| ·汉语协同发音背景 | 第59页 |
| ·改进的协同发音模型 | 第59-60页 |
| ·双音子及三音子 | 第60-61页 |
| ·音子与其对应口型之间的相互影响关系 | 第61-64页 |
| ·合成语音过渡口型 | 第64-65页 |
| ·可视语音动画合成 | 第65-67页 |
| ·人脸动画原理 | 第65-66页 |
| ·可视语音与人脸动画同步的实现 | 第66-67页 |
| ·实验结果与分析 | 第67-69页 |
| ·本章小结 | 第69-70页 |
| 结论 | 第70-71页 |
| 参考文献 | 第71-75页 |
| 致谢 | 第75页 |