汉语文本驱动的人脸动画演示系统设计
| 摘要 | 第1-5页 |
| Abstract | 第5-9页 |
| 第1章 绪论 | 第9-14页 |
| ·课题研究的目的和意义 | 第9-10页 |
| ·人脸动画演示系统的发展与研究现状 | 第10-12页 |
| ·本文研究的主要内容 | 第12-14页 |
| 第2章 人脸动画演示系统的框架设计 | 第14-23页 |
| ·人脸动画技术 | 第14-16页 |
| ·基于参数控制的方法 | 第14-15页 |
| ·基于数据驱动的方法 | 第15-16页 |
| ·MPEG-4动画原理 | 第16-20页 |
| ·人脸定义参数(FDP) | 第17页 |
| ·人脸动画参数(FAP) | 第17-18页 |
| ·人脸动画参数单元(FAPU) | 第18-19页 |
| ·人脸动画定义表 | 第19-20页 |
| ·汉语文本驱动的人脸动画演示系统框架设计 | 第20-22页 |
| ·本章小结 | 第22-23页 |
| 第3章 基于形变模型的三维人脸建模 | 第23-34页 |
| ·标准人脸建模 | 第23-26页 |
| ·基于参数的人脸模型 | 第23-24页 |
| ·基于物理形变的人脸模型 | 第24-26页 |
| ·特定人脸建模 | 第26-27页 |
| ·基于三维散乱点数据的建模方法 | 第26页 |
| ·基于图像的建模方法 | 第26-27页 |
| ·基于形变模型的三维人脸重建方法 | 第27-31页 |
| ·形变模型的基本框架 | 第27-28页 |
| ·形变模型的建立 | 第28-29页 |
| ·模型与二维图像的匹配 | 第29-31页 |
| ·人脸动画演示系统的三维建模实现 | 第31-33页 |
| ·本章小结 | 第33-34页 |
| 第4章 汉语文本分析与口型库的建立 | 第34-39页 |
| ·汉语文本分析 | 第34页 |
| ·拼音口型库建立 | 第34-36页 |
| ·汉字拼音映射及分解流程实现 | 第36-38页 |
| ·本章小结 | 第38-39页 |
| 第5章 汉语协同发音的过渡口型合成 | 第39-44页 |
| ·汉语的协同发音分析 | 第39-40页 |
| ·双音子和三音子协调发音 | 第40-41页 |
| ·音子与对应口型的相互影响分析 | 第41-42页 |
| ·连续语流的过渡口型合成实现 | 第42-43页 |
| ·本章小结 | 第43-44页 |
| 第6章 基于文本驱动的人脸动画演示系统设计实现 | 第44-50页 |
| ·人脸动画演示系统的功能设计 | 第44-45页 |
| ·基于OpenGL的人脸模型导入 | 第45-47页 |
| ·人脸动画演示系统实现 | 第47-49页 |
| ·本章小结 | 第49-50页 |
| 第7章 结论与展望 | 第50-52页 |
| ·论文工作总结 | 第50-51页 |
| ·进一步研究展望 | 第51-52页 |
| 致谢 | 第52-53页 |
| 参考文献 | 第53-56页 |
| 攻读学位期间发表的论文和参加的科研项目 | 第56页 |