首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

视频驱动的动态情感分析

摘要第4-5页
Abstract第5-6页
第1章 引言第12-24页
    1.1 研究背景与意义第12-13页
    1.2 研究现状及存在问题第13-22页
    1.3 本文主要研究内容和贡献第22页
    1.4 本文的篇章组织结构第22-24页
第2章 深度学习相关技术及表情识别相关技术介绍第24-38页
    2.1 前向传播算法和反向传播算法第24-25页
    2.2 卷积神经网络第25-29页
        2.2.1 卷积层第25-26页
        2.2.2 池化层第26-27页
        2.2.3 常用神经网络第27-29页
    2.3 循环神经网络第29-33页
        2.3.1 门控循环单元第30-31页
        2.3.2 长短期记忆神经网络第31-33页
    2.4 图片表情识别第33-35页
    2.5 视频表情识别第35-38页
第3章 基于视频帧注意力机制的视频人脸表情识别方法第38-48页
    3.1 方法第38-40页
        3.1.1 视频注意力模块第38-40页
    3.2 实验第40-46页
        3.2.1 使用的数据集第40-41页
        3.2.2 实现细节第41-42页
        3.2.3 CK+ 数据集实验结果第42-43页
        3.2.4 AFEW8.0 数据集实验结果第43-44页
        3.2.5 表情帧权重可视化第44页
        3.2.6 超参评估第44-46页
    3.3 本章小结第46-48页
第4章 多模态视音频表情识别算法第48-56页
    4.1 方法第48-51页
        4.1.1 基于视频帧静态信息的表情特征抽取模块第48-49页
        4.1.2 基于视频序列信息的表情特征抽取模块第49-50页
        4.1.3 基于音频信息的情感特征抽取模块第50页
        4.1.4 多模态信息融合第50-51页
    4.2 实验数据集和数据预处理第51-52页
        4.2.1 实验数据集第51-52页
        4.2.2 数据预处理第52页
    4.3 实验结果第52-55页
        4.3.1 表情数据集预训练策略评估第52-53页
        4.3.2 分类器微调策略评估第53页
        4.3.3 Dropout策略评估第53-54页
        4.3.4 实验结果第54-55页
    4.4 本章小结第55-56页
第5章 真实场景下多模态表情数据库第56-68页
    5.1 方法第56-59页
        5.1.1 标注方法设计第56-58页
        5.1.2 标注第58页
        5.1.3 修正表情识别算法第58页
        5.1.4 数据库评价指标第58-59页
    5.2 数据库建立流程第59-64页
        5.2.1 网络收集表情视频第59-60页
        5.2.2 裁剪第60页
        5.2.3 标注第60-64页
    5.3 实验设置和结果第64-66页
        5.3.1 训练方式设计第64-65页
        5.3.2 实现细节和参数设置第65页
        5.3.3 实验结果第65-66页
        5.3.4 愉悦度、唤醒度标注的实验第66页
    5.4 总结第66-68页
第6章 总结与展望第68-70页
    6.1 本文总结第68页
    6.2 研究展望第68-70页
参考文献第70-76页
作者简历及攻读学位期间发表的学术论文与研究成果第76-78页
致谢第78-79页

论文共79页,点击 下载论文
上一篇:基于深度学习的细粒度图像识别方法研究
下一篇:基于多源交通数据的路况分析与研究