一人或两人驱动非类人角色面部表情动画
| 摘要 | 第1-6页 |
| Abstract | 第6-10页 |
| 第1章 绪论 | 第10-17页 |
| ·表情动画的研究背景和意义 | 第10-11页 |
| ·表情动画国内外研究现状 | 第11-14页 |
| ·非类人角色表情动画的难点 | 第14-15页 |
| ·本文工作 | 第15-16页 |
| ·文章结构 | 第16-17页 |
| 第2章 表情捕捉及数据预处理 | 第17-25页 |
| ·面部运动捕获设备 | 第17-20页 |
| ·面部运动捕获 | 第20-22页 |
| ·面部运动数据处理 | 第22-24页 |
| ·本章小结 | 第24-25页 |
| 第3章 非类人角色面部结构分析及处理 | 第25-31页 |
| ·非类人角色面部结构分析 | 第25-27页 |
| ·局部坐标系的建立 | 第27-28页 |
| ·局部坐标系和全局坐标系之间转换矩阵的计算 | 第28-30页 |
| ·本章小结 | 第30-31页 |
| 第4章 非类人角色面部表情重定向 | 第31-40页 |
| ·拉普拉斯网格编辑方法 | 第31-36页 |
| ·Gea 角色模型的拉普拉斯坐标表示形式 | 第31-33页 |
| ·拉普拉斯坐标几何意义及权值 | 第33-34页 |
| ·拉普拉斯坐标实现 Gea 模型重建 | 第34-36页 |
| ·面部表情重定向 | 第36-38页 |
| ·两个表演者共同驱动角色面部动画 | 第38页 |
| ·本章小结 | 第38-40页 |
| 第5章 非类人角色面部表情动画系统设计与实现 | 第40-54页 |
| ·实验平台的搭建 | 第40-42页 |
| ·开发工具简介 | 第40-41页 |
| ·开发环境的配置 | 第41-42页 |
| ·设计与实现 | 第42-44页 |
| ·非类人角色表情动画系统的功能设计 | 第42-43页 |
| ·非类人角色表情动画系统的程序流程 | 第43-44页 |
| ·非类人角色表情动画系统的界面设计 | 第44页 |
| ·非类人角色表情动画系统的实现 | 第44-49页 |
| ·基于 Kinect 的表情捕获具体实现 | 第44-45页 |
| ·非类人角色表情重定向 | 第45-47页 |
| ·同时重定向两个表演者的面部表情 | 第47-49页 |
| ·实验结果与分析 | 第49-52页 |
| ·一个表演者驱动非类人角色表情动画 | 第49-52页 |
| ·两个表演者同时驱动非类人角色表情动画 | 第52页 |
| ·本章小结 | 第52-54页 |
| 结论 | 第54-56页 |
| 参考文献 | 第56-59页 |
| 攻读硕士学位期间承担的科研任务与主要成果 | 第59-60页 |
| 致谢 | 第60-61页 |
| 作者简介 | 第61页 |