视频驱动的三维唇动合成
摘要 | 第1-5页 |
Abstract | 第5-8页 |
第1章 绪论 | 第8-21页 |
·课题来源及研究的目的和意义 | 第8-9页 |
·国内外在该方向的研究现状及分析 | 第9-19页 |
·从驱动技术对唇动合成进行分类 | 第9-16页 |
·从实现上对唇动合成方法分类 | 第16-19页 |
·本文的主要研究内容 | 第19-21页 |
第2章 标准嘴唇模型 | 第21-31页 |
·面部行为编码系统 | 第21-24页 |
·CANDIDE-3 面部模型 | 第24-30页 |
·版本的发展 | 第24-26页 |
·形状单位 | 第26-28页 |
·动画单位 | 第28-29页 |
·控制机制 | 第29-30页 |
·本章小结 | 第30-31页 |
第3章 基于表观的唇动合成 | 第31-38页 |
·基于表观的嘴唇跟踪方法 | 第31-35页 |
·获取纹理模型 | 第31-32页 |
·形状无关纹理 | 第32-33页 |
·跟踪问题 | 第33-34页 |
·跟踪方法 | 第34-35页 |
·唇动合成 | 第35-37页 |
·本章小结 | 第37-38页 |
第4章 基于运动的唇动合成 | 第38-53页 |
·嘴唇特征点的跟踪 | 第38-48页 |
·嘴唇特征点的选取 | 第38-39页 |
·利用Lucas-Kanade 算法跟踪特征点 | 第39-46页 |
·利用Canny 算子改进跟踪算法 | 第46-48页 |
·唇动合成 | 第48-51页 |
·计算动画参数 | 第48-50页 |
·合成嘴唇动画 | 第50-51页 |
·本章小结 | 第51-53页 |
结论 | 第53-55页 |
参考文献 | 第55-59页 |
致谢 | 第59页 |