汉语文本驱动的人脸动画演示系统设计
摘要 | 第1-5页 |
Abstract | 第5-9页 |
第1章 绪论 | 第9-14页 |
·课题研究的目的和意义 | 第9-10页 |
·人脸动画演示系统的发展与研究现状 | 第10-12页 |
·本文研究的主要内容 | 第12-14页 |
第2章 人脸动画演示系统的框架设计 | 第14-23页 |
·人脸动画技术 | 第14-16页 |
·基于参数控制的方法 | 第14-15页 |
·基于数据驱动的方法 | 第15-16页 |
·MPEG-4动画原理 | 第16-20页 |
·人脸定义参数(FDP) | 第17页 |
·人脸动画参数(FAP) | 第17-18页 |
·人脸动画参数单元(FAPU) | 第18-19页 |
·人脸动画定义表 | 第19-20页 |
·汉语文本驱动的人脸动画演示系统框架设计 | 第20-22页 |
·本章小结 | 第22-23页 |
第3章 基于形变模型的三维人脸建模 | 第23-34页 |
·标准人脸建模 | 第23-26页 |
·基于参数的人脸模型 | 第23-24页 |
·基于物理形变的人脸模型 | 第24-26页 |
·特定人脸建模 | 第26-27页 |
·基于三维散乱点数据的建模方法 | 第26页 |
·基于图像的建模方法 | 第26-27页 |
·基于形变模型的三维人脸重建方法 | 第27-31页 |
·形变模型的基本框架 | 第27-28页 |
·形变模型的建立 | 第28-29页 |
·模型与二维图像的匹配 | 第29-31页 |
·人脸动画演示系统的三维建模实现 | 第31-33页 |
·本章小结 | 第33-34页 |
第4章 汉语文本分析与口型库的建立 | 第34-39页 |
·汉语文本分析 | 第34页 |
·拼音口型库建立 | 第34-36页 |
·汉字拼音映射及分解流程实现 | 第36-38页 |
·本章小结 | 第38-39页 |
第5章 汉语协同发音的过渡口型合成 | 第39-44页 |
·汉语的协同发音分析 | 第39-40页 |
·双音子和三音子协调发音 | 第40-41页 |
·音子与对应口型的相互影响分析 | 第41-42页 |
·连续语流的过渡口型合成实现 | 第42-43页 |
·本章小结 | 第43-44页 |
第6章 基于文本驱动的人脸动画演示系统设计实现 | 第44-50页 |
·人脸动画演示系统的功能设计 | 第44-45页 |
·基于OpenGL的人脸模型导入 | 第45-47页 |
·人脸动画演示系统实现 | 第47-49页 |
·本章小结 | 第49-50页 |
第7章 结论与展望 | 第50-52页 |
·论文工作总结 | 第50-51页 |
·进一步研究展望 | 第51-52页 |
致谢 | 第52-53页 |
参考文献 | 第53-56页 |
攻读学位期间发表的论文和参加的科研项目 | 第56页 |