摘要 | 第1-7页 |
ABSTRACT | 第7-10页 |
目录 | 第10-14页 |
第一章 绪论 | 第14-37页 |
·人机情感接口研究的背景和意义 | 第14-16页 |
·研究背景 | 第14页 |
·研究意义与应用领域 | 第14-16页 |
·人机情感接口综述 | 第16-31页 |
·初始帧特定人脸自动适配算法 | 第16-17页 |
·人脸三维表情运动跟踪算法 | 第17-19页 |
·滤波算法[杨2006] | 第19-21页 |
·图像压缩算法[薛2003] | 第21-23页 |
·人脸表情运动参数压缩算法 | 第23-25页 |
·人脸合成与语音动画[周2008] | 第25-28页 |
·人脸表情识别[刘2006] | 第28-30页 |
·国外主要相关科研机构介绍与国内相关研究 | 第30-31页 |
·本文所研究系统的流程 | 第31-32页 |
·人机情感接口的难点与思路 | 第32-33页 |
·本文的研究内容和结构安排 | 第33-34页 |
·本文的创新之处 | 第34-37页 |
第二章 初始帧特定人脸自动适配 | 第37-49页 |
·引言 | 第37页 |
·目前初始帧特定人脸自动适配存在的问题 | 第37页 |
·本章的主要思想 | 第37页 |
·人脸通用三维模型 | 第37-40页 |
·编码端的人脸通用三维模型 | 第38-40页 |
·解码端的人脸通用三维模型 | 第40页 |
·人脸检测与特征点定位 | 第40-44页 |
·基于壳向量的支持向量机快速增量学习算法[於2006] | 第41-44页 |
·径向基插值算法 | 第44页 |
·特定化人脸通用三维模型 | 第44-46页 |
·编码端特定化人脸通用三维模型 | 第44-46页 |
·解码端特定化人脸通用三维模型 | 第46页 |
·实验结果与分析 | 第46-48页 |
·本章小结 | 第48-49页 |
第三章 基于在线模型匹配与更新的人脸三维表情运动跟踪算法 | 第49-65页 |
·引言 | 第49-50页 |
·目前的在线模型匹配与更新存在的问题 | 第49页 |
·本章的主要思想 | 第49-50页 |
·算法框架 | 第50页 |
·几何归一化人脸图像 | 第50-52页 |
·粒子滤波的改进 | 第52-54页 |
·自适应统计观测模型 | 第54-56页 |
·减少光照和个体相关性的影响 | 第54-56页 |
·应对遮挡的措施 | 第56页 |
·自适应状态转移模型(确定性搜索) | 第56-57页 |
·基于在线模型匹配与更新的人脸三维表情运动跟踪算法 | 第57-58页 |
·将模型参数转换为MPEG-4人脸表情运动参数(FAP) | 第58页 |
·实验结果与分析 | 第58-62页 |
·全景人脸纹理图像的生成 | 第62-63页 |
·本章小结 | 第63-65页 |
第四章 人脸表情识别算法 | 第65-79页 |
·引言 | 第65-66页 |
·目前表情识别存在的问题 | 第65页 |
·本章的主要思想 | 第65-66页 |
·问题描述与对策 | 第66-67页 |
·动态人脸非刚体表情运动模型 | 第67-71页 |
·本章算法 | 第71-75页 |
·估计三维人脸姿态 | 第71页 |
·估计非刚体表情运动、表情类别 | 第71-75页 |
·实验结果与分析 | 第75-78页 |
·本章小结 | 第78-79页 |
第五章 人脸表情运动参数的编码方法 | 第79-85页 |
·引言 | 第79页 |
·目前人脸表情运动参数表示存在的问题 | 第79页 |
·本章的主要思想 | 第79页 |
·面部动作单元(Action Unit) | 第79-80页 |
·面部运动基函数(FBF) | 第80-82页 |
·FAP编解码方案 | 第82页 |
·FAP编码方案 | 第82页 |
·FAP解码方案 | 第82页 |
·实验结果与分析 | 第82-84页 |
·本章算法与MPEG-4推荐方案的比较 | 第82-83页 |
·验证极低比特率下传输的有效性 | 第83-84页 |
·本章小结 | 第84-85页 |
第六章 基于MPEG-4的三维人脸表情动画算法 | 第85-94页 |
·引言 | 第85页 |
·目前的表情动画方法存在的问题 | 第85页 |
·本章的主要思想 | 第85页 |
·MPEG-4三维人脸动画流程与本章人脸动画生成方法 | 第85-86页 |
·人脸表情动画的生成 | 第86-89页 |
·实验结果与分析 | 第89-93页 |
·本章小结 | 第93-94页 |
第七章 文本驱动下的语音同步三维人脸表情动画 | 第94-105页 |
·引言 | 第94页 |
·目前文本驱动下的语音动画方法存在的问题 | 第94页 |
·本章的主要思想 | 第94页 |
·没有采用可视化协同发音模型的英语视素合成 | 第94-97页 |
·可视化协同发音模型的研究 | 第97-98页 |
·改进的Cohen可视化协同发音模型 | 第97-98页 |
·参数的确定 | 第98页 |
·过渡口型的合成 | 第98页 |
·表情的混合 | 第98页 |
·实验结果与分析 | 第98-104页 |
·采用可视化协同发音模型的英语视素合成 | 第99-100页 |
·过渡口型的合成 | 第100-102页 |
·表情的混合 | 第102-104页 |
·本章小结 | 第104-105页 |
第八章 人机情感接口系统 | 第105-114页 |
·引言 | 第105页 |
·系统框架 | 第105-107页 |
·系统组成 | 第107-108页 |
·人机情感接口演示系统实验结果 | 第108-113页 |
·本章小结 | 第113-114页 |
第九章 结论与展望 | 第114-118页 |
·论文工作总结 | 第114-116页 |
·展望 | 第116-118页 |
参考文献 | 第118-139页 |
致谢 | 第139-140页 |
在读期间发表的学术论文 | 第140页 |