第1章 绪论 | 第1-12页 |
·意义及应用领域 | 第6-7页 |
·意义 | 第6页 |
·应用领域 | 第6-7页 |
·可视人脸语音动画技术的分类 | 第7-9页 |
·基于参数控制的方法 | 第8-9页 |
·基于数据驱动的方法 | 第9页 |
·本文的研究内容与主要工作 | 第9-11页 |
·论文的组织结构 | 第11-12页 |
第2章 MPEG-4 动画原理 | 第12-19页 |
·MPEG-4 的人脸动画的基本概念 | 第12-15页 |
·FDP | 第12-13页 |
·FAP | 第13-14页 |
·FAPU | 第14页 |
·人脸动画规则及动画定义表 | 第14-15页 |
·MPEG-4 人脸动画的原理 | 第15-17页 |
·MPEG-4 人脸动画实现步骤 | 第17-18页 |
·MPEG-4 人脸动画实现的难点 | 第18-19页 |
第3章 2D MPEG-4 人脸动画技术的实现 | 第19-27页 |
·二维人脸模型创建 | 第19页 |
·MPEG-4 标准人脸模型的人脸动画的定义表的构造方法 | 第19-21页 |
·二维纹理映射算法 | 第21-22页 |
·MPEG-4 的人脸动画模型编辑工具 | 第22-24页 |
·MPEG-4 人脸动画的软件设计方案 | 第24-27页 |
·类设计方案 | 第24-26页 |
·动画生成流程 | 第26-27页 |
第4章 于ASM的人脸模型匹配工具 | 第27-41页 |
·ASM方法简介 | 第27-34页 |
·形状建模 | 第27-31页 |
·局部纹理建模 | 第31-32页 |
·ASM目标搜索过程 | 第32-34页 |
·ASM方法的改进和增加的功能 | 第34-38页 |
·瞳孔的精确定位 | 第34-35页 |
·利用瞳孔进行模型初始化 | 第35-36页 |
·利用边缘信息改变局部搜索方法 | 第36-37页 |
·多策略自适应步长的确定 | 第37-38页 |
·手动调整 | 第38页 |
·人脸模型匹配工具及实验效果 | 第38-41页 |
第5章 TTVS系统实现 | 第41-57页 |
·人脸语音动画生成流程 | 第41页 |
·文本分析 | 第41-42页 |
·音位视位转换 | 第42-46页 |
·静态视位 | 第42-43页 |
·基于音节的动态视位 | 第43-44页 |
·视位参数获取方法 | 第44-46页 |
·音节视位拼接 | 第46-51页 |
·视位拼接算法 | 第46-49页 |
·基于语音韵律规则的视位调整方法 | 第49-50页 |
·表情与视位的融合 | 第50-51页 |
·科大讯飞TTS引擎调用简介 | 第51页 |
·语音与动画的同步 | 第51-53页 |
·文本驱动人脸动画系统介绍 | 第53-55页 |
·网络语音人脸动画聊天系统 | 第55-57页 |
第6章 结束语 | 第57-58页 |
·本文的研究工作成果及结论 | 第57页 |
·进一步的工作 | 第57-58页 |
参考文献 | 第58-61页 |
致谢 | 第61页 |