基于MPEG-4的任意嘴唇曲线的动画生成
| 摘要 | 第1-4页 |
| ABSTRACT | 第4-7页 |
| 1 绪论 | 第7-12页 |
| ·研究背景 | 第7-8页 |
| ·研究意义与应用领域 | 第8-9页 |
| ·国内外研究状况 | 第9-10页 |
| ·本文的工作和创新点 | 第10页 |
| ·本文的组织结构 | 第10-12页 |
| 2 嘴唇的建模方法及MPEG-4 人脸动画标准 | 第12-22页 |
| ·嘴唇的建模方法 | 第12-14页 |
| ·大规模弹性肌肉系统 | 第12页 |
| ·分层的弹性网格肌肉系统 | 第12-13页 |
| ·有限元方法 | 第13-14页 |
| ·参数化方法 | 第14页 |
| ·MPEG-4 简介 | 第14-15页 |
| ·MPEG-4 的技术及其应用 | 第15-21页 |
| ·人脸定义参数(FDP) | 第15-16页 |
| ·人脸动画参数(FAP) | 第16-21页 |
| ·本章小结 | 第21-22页 |
| 3 汉语拼音静态视位 | 第22-27页 |
| ·视位的分类 | 第22-23页 |
| ·视位的定量描述 | 第23-26页 |
| ·本章小结 | 第26-27页 |
| 4 拼音文本驱动的LAP 口型动画 | 第27-33页 |
| ·口型动画的驱动方法 | 第27页 |
| ·CARDINAL 样条 | 第27-28页 |
| ·CARDINAL 样条绘制口型曲线 | 第28-29页 |
| ·连续语流中中间过渡口型参数的确定 | 第29-30页 |
| ·线性插值 | 第29页 |
| ·三阶Hermite 曲线插值 | 第29-30页 |
| ·二阶分段连续函数插值 | 第30页 |
| ·协同发音 | 第30-31页 |
| ·向前看协同发音模型 | 第31页 |
| ·固定时间协同发音模型 | 第31页 |
| ·混合协同发音模型 | 第31页 |
| ·墓于权重函数的协同发音模型 | 第31页 |
| ·本章小结 | 第31-33页 |
| 5 自适应地生成任意的嘴唇曲线动画 | 第33-38页 |
| ·单位LAP 的计算 | 第33-34页 |
| ·自适应LAP 计算方法 | 第34页 |
| ·实验结果 | 第34-38页 |
| ·本文方法与真实照片的对比 | 第35页 |
| ·单位LAP 驱动任意口型 | 第35-36页 |
| ·小结 | 第36-38页 |
| 6 结论和展望 | 第38-40页 |
| ·结论 | 第38页 |
| ·展望 | 第38-40页 |
| 参考文献 | 第40-43页 |
| 致谢 | 第43-44页 |
| 硕士期间发表论文 | 第44页 |