中文摘要 | 第1-6页 |
目录 | 第6-8页 |
图表目录 | 第8-9页 |
第一章 概论 | 第9-15页 |
1.1 课题背景 | 第9-10页 |
1.2 国内外研究现状综述 | 第10-12页 |
1.3 系统结构概述 | 第12-13页 |
1.4 本文所做的工作及文章的结构 | 第13-15页 |
1.4.1 本文所做的主要工作 | 第13页 |
1.4.2 本文的组织结构 | 第13-15页 |
第二章 由三维一般人到特定人的调整 | 第15-22页 |
2.1 一般三维人脸模型的构造 | 第15-16页 |
2.2 一般人脸模型到特定人脸模型的调整变形 | 第16-20页 |
2.3 纹理映射 | 第20-21页 |
2.4 小结 | 第21-22页 |
第三章 文本驱动的口型合成 | 第22-35页 |
3.1 汉语发音中的口型变化基本规律 | 第22-26页 |
3.1.1 声母[31] | 第22-23页 |
3.1.2 韵母[31] | 第23-25页 |
3.1.3 声调 | 第25-26页 |
3.1.4 其他因素 | 第26页 |
3.2 嘴巴的抛物线模型 | 第26-27页 |
3.3 拼音文本驱动的口型合成 | 第27-34页 |
3.3.1 基本口型(viseme)的描述 | 第27-29页 |
3.3.2 复合元音韵的描述 | 第29页 |
3.3.3 汉语拼音文本到基本口型的转换 | 第29-30页 |
3.3.4 关键帧插值 | 第30-33页 |
3.3.5 特定人口型的合成 | 第33-34页 |
3.4 小结 | 第34-35页 |
第四章 行为驱动的口型合成 | 第35-41页 |
4.1 行为驱动唇动模型 | 第35-36页 |
4.2 Kriging方法介绍 | 第36-39页 |
4.3 行为驱动口型合成系统流程图 | 第39-40页 |
4.4 小结 | 第40-41页 |
第五章 交互式人脸编辑合成系统 | 第41-50页 |
5.1 系统结构 | 第41-43页 |
5.2 系统实现 | 第43-48页 |
5.3 小结 | 第48-50页 |
结论 | 第50-51页 |
参考资料 | 第51-55页 |
附录 | 第55-61页 |
致谢 | 第61-8页 |
图表目录 | 第8-12页 |
图1-1 系统结构关系 | 第12-16页 |
图2-1 脸部模型、眼白模型、瞳孔模型、眼眉模型 | 第16页 |
图2-2 上述四模型组合在一起后的人脸模型 | 第16-17页 |
图2-3 人脸网格模型及特征点 | 第17-18页 |
图2-4 径向基插值和Kriging方法效果(网格模型) | 第18-19页 |
图2-5 交互编辑界面和基本口型编辑 | 第19-20页 |
图2-6 纹理图象生成原理 | 第20-21页 |
图2-7 前后左右四幅人脸图象及由它们合成的纹理图象 | 第21-27页 |
图3-1 嘴巴模型 | 第27-29页 |
图3-2 基本口型 | 第29-31页 |
图3-3 口型数据点与时间参数t的关系 | 第31页 |
图3-4 t'与t的关系 | 第31页 |
图3-5 前响二合元音韵ai的发音过程示意 | 第31-32页 |
图3-6 词组“ai wu ji wu(爱屋及乌)”发音过程示意 | 第32-33页 |
图3-7 句子“Wo ai bei jing…(我爱北京)”发音过程合成图象序列 | 第33-34页 |
图3-8 特定人口型合成系统流程图 | 第34-35页 |
图4-1 嘴巴点集模型 | 第35-40页 |
图4-2 行为驱动口型合成系统流程 | 第40-42页 |
图5-1 交互式人脸编辑合成系统结构图 | 第42-45页 |
图5-2 交互编辑界面及口型编辑结果 | 第45-48页 |
图5-3 模型文件节选 | 第48页 |
图5-4 程序模型数据结构 | 第48-55页 |
图A-1 CA-CPE-1000图像采集卡结构框图 | 第55页 |
图A-2 图像采集处理系统示意图 | 第55-23页 |
表3-1 声母表 | 第23-24页 |
表3-2 韵母表 | 第24-26页 |
表3-3 声调时间表 | 第26-28页 |
表3-4 七种基本口型描述表 | 第28-47页 |
表5-1 键盘命令及鼠标操作说明 | 第47-61页 |