第一章 绪论 | 第1-19页 |
1.1 模型基编码 | 第6-10页 |
1.1.1 模型基编码简介 | 第6-8页 |
1.1.2 人脸模型基编码 | 第8-10页 |
1.2 MPEG-4中的人脸动画 | 第10-16页 |
1.2.1 FDP(Facial Definition Parameter) | 第11-13页 |
1.2.2 FAP(Facial Animation Parameter) | 第13-15页 |
1.2.3 FIT(FAP Interpolation Table) | 第15-16页 |
1.3 小结 | 第16页 |
1.4 本文的内容和所做工作 | 第16-19页 |
第二章 分析部分 | 第19-41页 |
2.1 脸部检测和特征定位 | 第19-23页 |
2.1.1 基于特征的方法 | 第19-23页 |
2.1.1.1 低层次分析 | 第20-21页 |
2.1.1.2 特征分析 | 第21-22页 |
2.1.1.3 动态形状模型 | 第22-23页 |
2.1.2 基于图像的方法 | 第23页 |
2.2 分析端系统结构 | 第23-25页 |
2.3 线框模型的改进 | 第25-26页 |
2.4 局部表情特征参数的提取 | 第26-32页 |
2.4.1 脸部的分割 | 第27-28页 |
2.4.2 特征区域的定位 | 第28-29页 |
2.4.3 特征点位置的确定 | 第29-32页 |
2.4.3.1 眼睛和嘴巴的模板 | 第29-30页 |
2.4.3.2 模板的能量函数 | 第30-31页 |
2.4.3.3 模板匹配 | 第31-32页 |
2.5 头部整体运动估计 | 第32-33页 |
2.6 运动参数到FAP的转化 | 第33-35页 |
2.6.1 局部表情参数的转化 | 第33-34页 |
2.6.2 整体运动参数的转化 | 第34-35页 |
2.7 FAP参数的压缩 | 第35-39页 |
2.7.1 FAP压缩算法 | 第35-38页 |
2.7.2 编码结果 | 第38-39页 |
2.8 小结 | 第39-41页 |
第三章 模型的匹配 | 第41-51页 |
3.1 模型匹配与分析合成的关系 | 第41-42页 |
3.2 模型匹配技术 | 第42-45页 |
3.3 本文的方法 | 第45-48页 |
3.3.1 径向收缩法 | 第45-46页 |
3.3.2 受控点的位置计算 | 第46-48页 |
3.4 ModelMatch工具 | 第48-49页 |
3.5 小结 | 第49-51页 |
第四章 合成部分 | 第51-67页 |
4.1 合成端系统结构 | 第51-52页 |
4.2 失真和误差掩盖 | 第52-54页 |
4.2.1 重绘图像的失真 | 第52-53页 |
4.2.2 误差掩盖 | 第53-54页 |
4.3 图像重绘 | 第54-58页 |
4.3.1 表情FAP参数的分级表示 | 第55-57页 |
4.3.2 纹理映射 | 第57-58页 |
4.4 运算量统计 | 第58-62页 |
4.4.1 模型调整部分 | 第58-59页 |
4.4.2 纹理映射部分 | 第59-61页 |
4.4.3 统计结论 | 第61-62页 |
4.5 皱纹生成模型 | 第62-66页 |
4.5.1 静态皱纹模型 | 第63-65页 |
4.5.2 动态皱纹模型 | 第65-66页 |
4.6 小结 | 第66-67页 |
第五章 应用实例:Grimace Chat系统 | 第67-69页 |
结束语 | 第69-70页 |
参考文献 | 第70-72页 |
作者发表的文章 | 第72-73页 |
致谢 | 第73页 |