表演驱动的实时人脸表情动画合成
| 摘要 | 第1-5页 |
| Abstract | 第5-7页 |
| 目录 | 第7-10页 |
| 图目录 | 第10-12页 |
| 表目录 | 第12-13页 |
| 第1章 绪论 | 第13-25页 |
| ·课题背景与意义 | 第13-14页 |
| ·国内外发展现状 | 第14-23页 |
| ·表演人脸表情捕捉 | 第14-16页 |
| ·人脸表情动画合成技术 | 第16-23页 |
| ·本文主要内容及章节安排 | 第23-25页 |
| 第2章 表演驱动人脸动画合成方案 | 第25-38页 |
| ·现有的表演驱动人脸表情动画合成方案 | 第25-29页 |
| ·改进的表演驱动人脸表情动画合成方案 | 第29-36页 |
| ·人脸解剖结构 | 第30-31页 |
| ·人脸肌肉模型 | 第31-34页 |
| ·人脸骨骼蒙皮模型与人脸肌肉模型比较 | 第34页 |
| ·骨骼蒙皮模型原理 | 第34-35页 |
| ·人脸的骨骼蒙皮模型实现细节 | 第35-36页 |
| ·本章小结 | 第36-38页 |
| 第3章 表演者的人脸检测与跟踪 | 第38-59页 |
| ·算法流程设计 | 第38页 |
| ·基于深度图的感兴趣区域预分割 | 第38-39页 |
| ·表演者的人脸检测 | 第39-49页 |
| ·算法概述 | 第39-40页 |
| ·特征提取 | 第40-43页 |
| ·训练分类器 | 第43-45页 |
| ·分类器级联 | 第45-47页 |
| ·多尺度检测 | 第47-49页 |
| ·表演者的人脸跟踪 | 第49-54页 |
| ·算法概述 | 第49-51页 |
| ·Mean Shift人脸跟踪算法 | 第51-54页 |
| ·实验结果及分析讨论 | 第54-58页 |
| ·本章小结 | 第58-59页 |
| 第4章 人脸表情动画参数生成 | 第59-78页 |
| ·FACS系统 | 第59页 |
| ·Candide-3人脸模型 | 第59-61页 |
| ·提取AU参数 | 第61-76页 |
| ·ICP算法原理 | 第62-64页 |
| ·AU计算策略 | 第64-66页 |
| ·实现细节 | 第66-76页 |
| ·本章小结 | 第76-78页 |
| 第5章 原型系统实现 | 第78-86页 |
| ·系统流程 | 第78页 |
| ·动画参数生成 | 第78-80页 |
| ·数据传输 | 第80-81页 |
| ·表情合成 | 第81-84页 |
| ·系统分析讨论 | 第84页 |
| ·本章小结 | 第84-86页 |
| 第6章 总结与展望 | 第86-87页 |
| 致谢 | 第87-88页 |
| 作者简历及在攻读学位期间的学术成果 | 第88-89页 |
| 参考文献 | 第89-93页 |