首页--工业技术论文--无线电电子学、电信技术论文--通信论文--电声技术和语音信号处理论文--语音信号处理论文

语音驱动虚拟说话人研究

摘要第6-7页
Abstract第7-8页
第1章 绪论第11-18页
    1.1 研究背景及意义第11-12页
    1.2 国内外研究现状第12-15页
        1.2.1 虚拟人面部动画技术的研究现状第12-13页
        1.2.2 语音驱动动画技术的研究现状第13-15页
    1.3 研究目标及内容第15-16页
        1.3.1 研究目标第15页
        1.3.2 研究内容第15-16页
    1.4 本文组织结构第16-18页
第2章 深度神经网络第18-24页
    2.1 深度神经网络概述第18页
    2.2 基于深度神经网络的声视觉映射第18-23页
        2.2.1 深度置信网络第19页
        2.2.2 受限的玻尔兹曼机第19-21页
        2.2.3 RBM的生成训练第21-22页
        2.2.4 堆砌RBM成DBN第22页
        2.2.5 微调DNN网络第22-23页
    2.3 本章小结第23-24页
第3章 声视觉语料库的构建第24-31页
    3.1 MNGU0数据库第24-25页
    3.2 LIPS2008数据库第25-30页
        3.2.1 语音特征参数的提取第25页
        3.2.2 人脸动画参数的提取第25-29页
        3.2.3 声视觉语料库的构建第29-30页
    3.3 本章小结第30-31页
第4章 语音驱动发音器官运动合成第31-41页
    4.1 基于深度神经网络的声视觉映射第31-32页
        4.1.1 网络结构的搭建第31-32页
        4.1.2 网络结构的实验参数第32页
    4.2 发音器官模型的运动合成第32-34页
        4.2.1 发音器官模型第32-33页
        4.2.2 计算控制量oos、zt和jaw第33-34页
    4.3 实验结果与分析第34-40页
        4.3.1 实验评价方法第34-35页
        4.3.2 ANN和DNN实验结果的对比第35-38页
        4.3.3 上下文的长度对实验结果的影响第38-39页
        4.3.4 唇部动画评价结果第39-40页
    4.4 本章小结第40-41页
第5章 基于MPEG-4的语音驱动虚拟说话人动画合成第41-55页
    5.1 系统总体设计第41-42页
    5.2 声视觉映射模型的建立第42-45页
        5.2.1 口型特征参数第42-44页
        5.2.2 声视觉映射模型建立与优化第44-45页
    5.3 口型动画合成第45-46页
    5.4 系统界面及各模块介绍第46-48页
        5.4.1 系统界面第46-47页
        5.4.2 模块介绍第47-48页
    5.5 实验结果与分析第48-53页
        5.5.1 实验评价方法第48页
        5.5.2 声视觉映射结果第48-51页
        5.5.3 口型动画的合成与评价第51-53页
        5.5.4 个性化头部模型构建与动画合成第53页
    5.6 本章小结第53-55页
结论第55-56页
致谢第56-57页
参考文献第57-62页
攻读硕士学位期间发表的论文及科研成果第62页

论文共62页,点击 下载论文
上一篇:石墨烯/TiO2复合材料的制备及其可见光光催化性能的研究
下一篇:基于多代理系统的微电网能量管理策略的研究