首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

基于深度彩色图像的三维人脸表情合成研究

摘要第3-4页
ABSTRACT第4页
第一章 绪论第7-12页
    1.1 表情合成研究的背景及意义第7-8页
    1.2 表情合成国内外研究现状第8-9页
    1.3 本文的主要研究思路第9-10页
    1.4 本文的结构安排第10-12页
第二章 深度与彩色相机标定和人脸特征点提取第12-26页
    2.1 体感设备原理第12-14页
        2.1.1 体感设备的内部结构和外形第12-13页
        2.1.2 体感设备工作原理第13-14页
        2.1.3 使用Kinect采集人脸深度与彩色图像的优点第14页
    2.2 深度与彩色相机的校准第14-20页
        2.2.1 校准实验准备第14-15页
        2.2.2 彩色相机的内参数校准第15-16页
        2.2.3 深度相机的内参数校准第16-17页
        2.2.4 外参数和相对位置校准第17-19页
        2.2.5 校准结果第19-20页
    2.3 人脸识别和特征点坐标提取第20-25页
        2.3.1 Kinect人脸跟踪识别第20-22页
        2.3.2 人脸特征点坐标提取第22-25页
    2.4 深度与彩色人脸图像采集结果第25-26页
第三章 基于特征点调整和纹理映射的三维人脸建模第26-41页
    3.1 特定三维人脸模型的生成方法第26-30页
        3.1.1 一般三维人脸模型的选取第26-27页
        3.1.2 基于特征点的人脸模型调整方法第27-30页
    3.2 基于全视角彩色人脸图像的纹理映射第30-39页
        3.2.1 全视角三维人脸纹理图像的合成方法第31-36页
        3.2.2 基于OpenGL和线性插值的人脸纹理映射方法第36-39页
    3.3 三维人脸建模实验结果第39-41页
第四章 基于面部动作编码系统的人脸表情合成第41-49页
    4.1 面部动作编码系统第41-43页
        4.1.1 面部动作编码系统FACS的应用第41-42页
        4.1.2 动作单元AU编码第42-43页
    4.2 基于FACS的三维人脸表情合成第43-47页
        4.2.1 动作单元AU和FaceGen模型顶点对应关系第43-44页
        4.2.2 六种基本表情对应FaceGen模型顶点移动位置第44-47页
    4.3 三维人脸表情合成实验结果第47-49页
第五章 软件设计实现和实验结果分析第49-56页
    5.1 软件开发环境配置第49-50页
        5.1.1 Kinect SDK开发环境配置第49页
        5.1.2 OpenGL开发环境配置第49-50页
    5.2 软件设计实现第50-53页
        5.2.1 软件界面设计第50-51页
        5.2.2 软件流程设计第51-53页
    5.3 实验结果分析第53-56页
第六章 总结与展望第56-57页
致谢第57-58页
参考文献第58-61页
作者简介及科研成果第61页

论文共61页,点击 下载论文
上一篇:原子力显微镜远程细胞检测技术
下一篇:分布式机器人纳米操作技术研究