人脸器官拼接融合及其在人脸动画中的应用
摘要 | 第1-5页 |
Abstract | 第5-10页 |
第1章 绪论 | 第10-18页 |
·人脸动画的研究背景和意义 | 第10-14页 |
·人脸动画的分类 | 第10-14页 |
·基于三维模型的人脸动画 | 第11-12页 |
·基于样本的人脸动画 | 第12-13页 |
·基于单幅图像变形的人脸动画 | 第13-14页 |
·人脸特征点定位研究背景 | 第14-15页 |
·图像拼接融合研究背景 | 第15-16页 |
·研究内容 | 第16页 |
·论文组织 | 第16-18页 |
第2章 MPEG-4 人脸动画标准 | 第18-23页 |
·中性状态人脸模型 | 第18-19页 |
·人脸定义参数 | 第19-20页 |
·人脸动画参数 | 第20-22页 |
·人脸动画参数单位 | 第22页 |
·本章小结 | 第22-23页 |
第3章 人脸动画的中的变形技术 | 第23-28页 |
·基于散乱点插值的方法 | 第23-25页 |
·基于碎片的方法 | 第25-27页 |
·基于三角剖分的图像变形算法 | 第25-26页 |
·基于网格扭曲的图像变形算法 | 第26-27页 |
·本章小结 | 第27-28页 |
第4章 人脸特征点定位 | 第28-35页 |
·基于灰度及变化信息 | 第28-29页 |
·基于活动轮廓线模型 | 第29页 |
·基于神经网络 | 第29-30页 |
·基于可变形模板 | 第30-31页 |
·基于肤色模型的人脸特征点自动定位 | 第31-34页 |
·基于肤色模型的唇部自动定位方法 | 第31-33页 |
·唇部检测方法概述 | 第31页 |
·唇部检测区域定位 | 第31-32页 |
·唇部检测 | 第32页 |
·唇部定位 | 第32-33页 |
·基于肤色模型的人眼自动定位方法 | 第33-34页 |
·人眼定位具体步骤 | 第33-34页 |
·本章小结 | 第34-35页 |
第5章 图像拼接和融合 | 第35-40页 |
·图像拼接流程 | 第35页 |
·图像配准 | 第35-37页 |
·基于特征的图像配准 | 第35-37页 |
·控制点配准算法 | 第35页 |
·自动角点检测配准算法 | 第35-36页 |
·基于轮廓特征的配准算法 | 第36页 |
·基于SIFT(尺度不变特征变换)的配准算法 | 第36-37页 |
·基于区域的图像配准 | 第37页 |
·相关法 | 第37页 |
·对数极坐标变换方法 | 第37页 |
·最大互信息配准法 | 第37页 |
·图像融合 | 第37-38页 |
·基于图像灰度的融合算法 | 第38页 |
·加权平均法 | 第38页 |
·基于感兴趣区域图像融合方法 | 第38页 |
·基于颜色空间变换的融合算法 | 第38页 |
·基于变换域的融合算法 | 第38页 |
·本章小结 | 第38-40页 |
第6章 加入了人脸器官拼接融合的人脸动画系统实现 | 第40-59页 |
·系统框架 | 第40-41页 |
·人脸特征点参数建模模块 | 第41-46页 |
·人脸图像二值化 | 第42-43页 |
·脸部区域检测 | 第43页 |
·眼孔检测 | 第43-44页 |
·眼角检测 | 第44页 |
·嘴角检测 | 第44页 |
·手动定位 | 第44页 |
·特征点定义 | 第44-46页 |
·语音识别模块 | 第46-49页 |
·图像变形模块 | 第49-52页 |
·人脸图像变形的控制 | 第49-50页 |
·Mesh-warping 变形算法 | 第50-52页 |
·构造样条 | 第50-51页 |
·图像变形 | 第51-52页 |
·人脸口腔/眼球器官拼接融合 | 第52-56页 |
·配准样本图像和人脸图像 | 第52-53页 |
·构造样条并根据极坐标插值变形样本图像 | 第53-55页 |
·图像融合 | 第55页 |
·眼球效果特处理 | 第55-56页 |
·系统实现 | 第56页 |
·实验结果 | 第56-59页 |
·动画效果 | 第56-58页 |
·说话口型效果 | 第56-57页 |
·口腔融合效果 | 第57页 |
·眨眼动画和眼球运动效果 | 第57-58页 |
·实时性 | 第58-59页 |
第7章 结束语 | 第59-61页 |
·总结 | 第59-60页 |
·工作展望 | 第60-61页 |
参考文献 | 第61-66页 |
致谢 | 第66-67页 |
在读期间发表的学术论文与取得的研究成果 | 第67页 |