基于MPEG-4的任意嘴唇曲线的动画生成
摘要 | 第1-4页 |
ABSTRACT | 第4-7页 |
1 绪论 | 第7-12页 |
·研究背景 | 第7-8页 |
·研究意义与应用领域 | 第8-9页 |
·国内外研究状况 | 第9-10页 |
·本文的工作和创新点 | 第10页 |
·本文的组织结构 | 第10-12页 |
2 嘴唇的建模方法及MPEG-4 人脸动画标准 | 第12-22页 |
·嘴唇的建模方法 | 第12-14页 |
·大规模弹性肌肉系统 | 第12页 |
·分层的弹性网格肌肉系统 | 第12-13页 |
·有限元方法 | 第13-14页 |
·参数化方法 | 第14页 |
·MPEG-4 简介 | 第14-15页 |
·MPEG-4 的技术及其应用 | 第15-21页 |
·人脸定义参数(FDP) | 第15-16页 |
·人脸动画参数(FAP) | 第16-21页 |
·本章小结 | 第21-22页 |
3 汉语拼音静态视位 | 第22-27页 |
·视位的分类 | 第22-23页 |
·视位的定量描述 | 第23-26页 |
·本章小结 | 第26-27页 |
4 拼音文本驱动的LAP 口型动画 | 第27-33页 |
·口型动画的驱动方法 | 第27页 |
·CARDINAL 样条 | 第27-28页 |
·CARDINAL 样条绘制口型曲线 | 第28-29页 |
·连续语流中中间过渡口型参数的确定 | 第29-30页 |
·线性插值 | 第29页 |
·三阶Hermite 曲线插值 | 第29-30页 |
·二阶分段连续函数插值 | 第30页 |
·协同发音 | 第30-31页 |
·向前看协同发音模型 | 第31页 |
·固定时间协同发音模型 | 第31页 |
·混合协同发音模型 | 第31页 |
·墓于权重函数的协同发音模型 | 第31页 |
·本章小结 | 第31-33页 |
5 自适应地生成任意的嘴唇曲线动画 | 第33-38页 |
·单位LAP 的计算 | 第33-34页 |
·自适应LAP 计算方法 | 第34页 |
·实验结果 | 第34-38页 |
·本文方法与真实照片的对比 | 第35页 |
·单位LAP 驱动任意口型 | 第35-36页 |
·小结 | 第36-38页 |
6 结论和展望 | 第38-40页 |
·结论 | 第38页 |
·展望 | 第38-40页 |
参考文献 | 第40-43页 |
致谢 | 第43-44页 |
硕士期间发表论文 | 第44页 |