| 独创性(或创新性)声明 | 第1-3页 |
| 摘要 | 第3-5页 |
| Abstract | 第5-9页 |
| 第1章 绪论 | 第9-12页 |
| ·研究背景 | 第9-11页 |
| ·文本的工作 | 第11页 |
| ·本文的组织结构 | 第11-12页 |
| 第2章 人脸特征点提取与三维重建 | 第12-27页 |
| ·特征点提取原理 | 第12-14页 |
| ·立体视觉 | 第12页 |
| ·空间点重建 | 第12-13页 |
| ·正、侧面照片中特征点的重建 | 第13-14页 |
| ·人脸特征点提取 | 第14-17页 |
| ·照片预处理 | 第14-15页 |
| ·特征点提取 | 第15-16页 |
| ·设计与实现 | 第16-17页 |
| ·三维重建 | 第17-19页 |
| ·一般人脸模型生成 | 第18页 |
| ·一般人脸模型数据结构般人脸模型 | 第18-19页 |
| ·模型修改 | 第19-20页 |
| ·整体修改 | 第19-20页 |
| ·曲面重构 | 第20-26页 |
| ·B样条曲线、曲面的定义 | 第20-22页 |
| ·B样条曲线、曲面基本算法 | 第22-24页 |
| ·曲面拟合 | 第24-26页 |
| ·本章小结 | 第26-27页 |
| 第3章 基于MPEG-4的面部动作 | 第27-35页 |
| ·面部动作系统概述 | 第27-28页 |
| ·基于MPEG-4的表情模型 | 第28-30页 |
| ·表情的生成 | 第30-31页 |
| ·表情动画 | 第31-34页 |
| ·B-样条插值 | 第32-33页 |
| ·表情动画 | 第33-34页 |
| ·本章小结 | 第34-35页 |
| 第4章 文本驱动的人脸动画 | 第35-45页 |
| ·系统概述 | 第35-36页 |
| ·基于参数化嘴唇模型的视位分类方法 | 第36-39页 |
| ·参数化嘴唇模型 | 第36-38页 |
| ·聚类算法 | 第38-39页 |
| ·协同发音模型 | 第39-41页 |
| ·向前看协同发音模型 | 第40页 |
| ·固定时间协同发音模型 | 第40-41页 |
| ·混合协同发音模型 | 第41页 |
| ·基于权重函数的协同发音模型 | 第41页 |
| ·协同发音模型的边界问题 | 第41-43页 |
| ·协同发音过程中的变频采样技术 | 第41-43页 |
| ·协同发音模型的参数训练 | 第43页 |
| ·本章小结 | 第43-45页 |
| 第5章 语音驱动的人脸动画以及系统模型 | 第45-59页 |
| ·系统概述 | 第45页 |
| ·语音信号处理和HMM训练 | 第45-46页 |
| ·基于汉语发音规则的语音识别网络 | 第46-47页 |
| ·连续汉语语音识别中的搜索策略 | 第47-48页 |
| ·系统结构模型 | 第48-49页 |
| ·二维特征跟踪 | 第49页 |
| ·MPEG-4标准中的人脸动画 | 第49-55页 |
| ·人脸定义参数(FDP) | 第49-54页 |
| ·人脸动画参数单位(FAPU) | 第54-55页 |
| ·脸动画参数插值表(FIT) | 第55页 |
| ·人脸动画的BIFS(Binary Format For Scenes) | 第55页 |
| ·MPEG-4兼容的人脸动画系统的设计 | 第55-57页 |
| ·本章总结 | 第57-59页 |
| 第6章 总结与展望 | 第59-61页 |
| ·总结 | 第59页 |
| ·改进和完善 | 第59-61页 |
| 参考文献 | 第61-64页 |
| 附录1 FAP的定义 | 第64-68页 |
| 附录2 MPA定义 | 第68-70页 |
| 附录3 FC定义 | 第70-71页 |
| 致谢 | 第71-72页 |
| 攻读硕士学位期间发表的论文 | 第72页 |