摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 引言 | 第12-24页 |
1.1 研究背景与意义 | 第12-13页 |
1.2 研究现状及存在问题 | 第13-22页 |
1.3 本文主要研究内容和贡献 | 第22页 |
1.4 本文的篇章组织结构 | 第22-24页 |
第2章 深度学习相关技术及表情识别相关技术介绍 | 第24-38页 |
2.1 前向传播算法和反向传播算法 | 第24-25页 |
2.2 卷积神经网络 | 第25-29页 |
2.2.1 卷积层 | 第25-26页 |
2.2.2 池化层 | 第26-27页 |
2.2.3 常用神经网络 | 第27-29页 |
2.3 循环神经网络 | 第29-33页 |
2.3.1 门控循环单元 | 第30-31页 |
2.3.2 长短期记忆神经网络 | 第31-33页 |
2.4 图片表情识别 | 第33-35页 |
2.5 视频表情识别 | 第35-38页 |
第3章 基于视频帧注意力机制的视频人脸表情识别方法 | 第38-48页 |
3.1 方法 | 第38-40页 |
3.1.1 视频注意力模块 | 第38-40页 |
3.2 实验 | 第40-46页 |
3.2.1 使用的数据集 | 第40-41页 |
3.2.2 实现细节 | 第41-42页 |
3.2.3 CK+ 数据集实验结果 | 第42-43页 |
3.2.4 AFEW8.0 数据集实验结果 | 第43-44页 |
3.2.5 表情帧权重可视化 | 第44页 |
3.2.6 超参评估 | 第44-46页 |
3.3 本章小结 | 第46-48页 |
第4章 多模态视音频表情识别算法 | 第48-56页 |
4.1 方法 | 第48-51页 |
4.1.1 基于视频帧静态信息的表情特征抽取模块 | 第48-49页 |
4.1.2 基于视频序列信息的表情特征抽取模块 | 第49-50页 |
4.1.3 基于音频信息的情感特征抽取模块 | 第50页 |
4.1.4 多模态信息融合 | 第50-51页 |
4.2 实验数据集和数据预处理 | 第51-52页 |
4.2.1 实验数据集 | 第51-52页 |
4.2.2 数据预处理 | 第52页 |
4.3 实验结果 | 第52-55页 |
4.3.1 表情数据集预训练策略评估 | 第52-53页 |
4.3.2 分类器微调策略评估 | 第53页 |
4.3.3 Dropout策略评估 | 第53-54页 |
4.3.4 实验结果 | 第54-55页 |
4.4 本章小结 | 第55-56页 |
第5章 真实场景下多模态表情数据库 | 第56-68页 |
5.1 方法 | 第56-59页 |
5.1.1 标注方法设计 | 第56-58页 |
5.1.2 标注 | 第58页 |
5.1.3 修正表情识别算法 | 第58页 |
5.1.4 数据库评价指标 | 第58-59页 |
5.2 数据库建立流程 | 第59-64页 |
5.2.1 网络收集表情视频 | 第59-60页 |
5.2.2 裁剪 | 第60页 |
5.2.3 标注 | 第60-64页 |
5.3 实验设置和结果 | 第64-66页 |
5.3.1 训练方式设计 | 第64-65页 |
5.3.2 实现细节和参数设置 | 第65页 |
5.3.3 实验结果 | 第65-66页 |
5.3.4 愉悦度、唤醒度标注的实验 | 第66页 |
5.4 总结 | 第66-68页 |
第6章 总结与展望 | 第68-70页 |
6.1 本文总结 | 第68页 |
6.2 研究展望 | 第68-70页 |
参考文献 | 第70-76页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第76-78页 |
致谢 | 第78-79页 |