基于MPEG-4标准的三维人脸动画
第1章 引言 | 第1-10页 |
1.1 研究背景 | 第7-8页 |
1.2 文本的工作 | 第8-9页 |
1.3 本文的组织结构 | 第9-10页 |
第2章 综述 | 第10-20页 |
2.1 人脸模型 | 第10-11页 |
2.1.1 自由变形人脸模型 | 第10页 |
2.1.2 参数化人脸模型 | 第10-11页 |
2.1.3 基于物理的人脸模型 | 第11页 |
2.2 人脸动画技术 | 第11-13页 |
2.2.1 基于协同发音模型的人脸动画 | 第11页 |
2.2.2 表演驱动的人脸动画 | 第11-12页 |
2.2.3 语音驱动的人脸动画 | 第12-13页 |
2.3 嘴唇动画 | 第13-15页 |
2.3.1 大规模弹性肌肉系统 | 第14页 |
2.3.2 分层的弹性网格肌肉系统 | 第14-15页 |
2.3.3 有限元方法 | 第15页 |
2.3.4 参数化方法 | 第15页 |
2.4 MPEG-4人脸动画标准 | 第15-20页 |
2.4.1 MPEG-4 | 第15-16页 |
2.4.2 MPEG-4中的人脸动画 | 第16-20页 |
第3章 基于MPEG-4的面部动作编码 | 第20-27页 |
3.1 面部动作编码系统概述 | 第20-21页 |
3.2 基于MPEG-4的表情模型 | 第21-22页 |
3.3 表情的生成 | 第22-24页 |
3.4 表情动画 | 第24-26页 |
3.4.1 B样条插值 | 第24-25页 |
3.4.2 表情动画实验结果 | 第25-26页 |
3.5 本章小结 | 第26-27页 |
第4章 中文文本驱动的人脸动画 | 第27-42页 |
4.1 系统概述 | 第27-28页 |
4.2 基于参数化嘴唇模型的视位分类方法 | 第28-32页 |
4.2.1 参数化嘴唇模型 | 第28-30页 |
4.2.2 聚类算法 | 第30-32页 |
4.3 获取静态视位库 | 第32-33页 |
4.4 协同发音模型 | 第33-40页 |
4.4.1 向前看协同发音模型 | 第33-34页 |
4.4.2 固定时间协同发音模型 | 第34页 |
4.4.3 混合协同发音模型 | 第34页 |
4.4.4 基于权重函数的协同发音模型 | 第34-38页 |
4.4.5 自适应的汉字之间的静音模型 | 第38-39页 |
4.4.6 协同发音模型的边界问题 | 第39页 |
4.4.7 协同发音过程中的变频采样技术 | 第39-40页 |
4.5 协同发音模型的参数的训练 | 第40-41页 |
4.6 本章小结 | 第41-42页 |
第5章 连续汉语语音驱动的人脸动画 | 第42-47页 |
5.1 系统概述 | 第42页 |
5.2 语音信号处理和 HMM训练 | 第42-43页 |
5.3 基于汉语发音规则的语音识别网络 | 第43-45页 |
5.4 连续汉语语音识别中的搜索策略 | 第45页 |
5.5 本章小结 | 第45-47页 |
第6章 人脸动画原型系统 | 第47-53页 |
6.1 系统结构 | 第47-48页 |
6.2 二维特征跟踪 | 第48页 |
6.3 FAP文件样例 | 第48页 |
6.4 MPA文件样例 | 第48-52页 |
6.5 基于FACS的表情动画 | 第52页 |
6.6 语音驱动的人脸动画 | 第52-53页 |
第7章 总结与展望 | 第53-55页 |
7.1 总结 | 第53页 |
7.2 展望 | 第53-55页 |
参考文献 | 第55-61页 |
致谢 | 第61-62页 |
附录一 FAP定义 | 第62-67页 |
附录二 MPA定义 | 第67-69页 |
附录三 FC定义 | 第69页 |