基于瞳孔反应的隐式视频情感标注
摘要 | 第3-4页 |
Abstract | 第4-5页 |
第1章 绪论 | 第9-16页 |
1.1 研究背景及意义 | 第9-11页 |
1.2 研究现状 | 第11-14页 |
1.2.1 基于生理信号的分析方法 | 第11-12页 |
1.2.2 基于可视行为的分析方法 | 第12-13页 |
1.2.3 混合方法 | 第13-14页 |
1.3 本文的主要研究内容 | 第14-15页 |
1.4 本文的组织结构 | 第15-16页 |
第2章 相关理论与算法 | 第16-24页 |
2.1 情感表示 | 第16-18页 |
2.1.1 基本情感模型 | 第16-17页 |
2.1.2 维度情感模型 | 第17-18页 |
2.2 瞳孔反应 | 第18-20页 |
2.2.1 光反应 | 第19页 |
2.2.2 情绪反应 | 第19-20页 |
2.3 机器学习算法 | 第20-23页 |
2.3.1 循环神经网络 | 第20-22页 |
2.3.2 支持向量机 | 第22-23页 |
2.4 本章小结 | 第23-24页 |
第3章 信号预处理与瞳孔孔径差异削弱 | 第24-30页 |
3.1 信号预处理 | 第24-27页 |
3.1.1 缺失值删除 | 第24-25页 |
3.1.2 初始光反应移除 | 第25-26页 |
3.1.3 信号平滑 | 第26-27页 |
3.2 瞳孔孔径差异削弱 | 第27-29页 |
3.3 本章小结 | 第29-30页 |
第4章 特征提取与情感识别模型 | 第30-38页 |
4.1 情感特征提取 | 第30-33页 |
4.1.1 全局特征提取 | 第31页 |
4.1.2 序列特征提取 | 第31-33页 |
4.2 情感识别模型 | 第33-37页 |
4.2.1 基于循环神经网络的概率估计 | 第33-35页 |
4.2.2 基于支持向量机的概率估计 | 第35-36页 |
4.2.3 决策级融合 | 第36-37页 |
4.3 本章小结 | 第37-38页 |
第5章 实验 | 第38-49页 |
5.1 实验设置 | 第38-43页 |
5.1.1 标准数据集 | 第38-41页 |
5.1.2 评价标准 | 第41-42页 |
5.1.3 模型实现与配置 | 第42-43页 |
5.2 实验结果 | 第43-48页 |
5.2.1 主体差异削弱 | 第43-44页 |
5.2.2 基于不同融合规则的分类精度 | 第44-47页 |
5.2.3 分类结果对比 | 第47-48页 |
5.3 本章小结 | 第48-49页 |
第6章 总结与展望 | 第49-51页 |
6.1 总结 | 第49-50页 |
6.2 展望 | 第50-51页 |
参考文献 | 第51-56页 |
致谢 | 第56-57页 |
攻读硕士学位期间的研究成果 | 第57页 |