融合人脸表情和语音的双模态情感识别研究
摘要 | 第5-6页 |
Abstract | 第6-7页 |
1 绪论 | 第10-16页 |
1.1 情感识别的应用及研究意义 | 第10-11页 |
1.2 情感的定义与表示方法 | 第11-12页 |
1.3 情感识别的定义 | 第12-13页 |
1.4 研究内容与结构安排 | 第13-16页 |
2 情感识别的研究现状 | 第16-22页 |
2.1 基于人脸表情的情感识别研究现状 | 第16-18页 |
2.1.1 表情特征提取的研究现状 | 第16-17页 |
2.1.2 人脸表情分类算法的研究现状 | 第17-18页 |
2.2 基于语音的情感识别研究现状 | 第18-19页 |
2.2.1 语音情感特征研究现状 | 第18-19页 |
2.2.2 语音情感识别算法的研究现状 | 第19页 |
2.3 双模态情感识别研究现状 | 第19-20页 |
2.4 本章小结 | 第20-22页 |
3 基于支持向量机的图像人脸表情识别 | 第22-38页 |
3.1 数据采集 | 第22-23页 |
3.2 人脸检测 | 第23-24页 |
3.3 基于彩色图像和深度图像的人脸表情特征提取 | 第24-28页 |
3.3.1 图像预处理 | 第25页 |
3.3.2 基于Gabor小波的彩色图特征提取 | 第25-26页 |
3.3.3 基于深度值统计分布的深度图特征提取 | 第26-28页 |
3.3.4 基于PCA的特征降维 | 第28页 |
3.4 基于SVM的人脸表情的分类 | 第28-33页 |
3.4.1 核函数的选取 | 第29页 |
3.4.2 构建多类SVM分类器 | 第29-32页 |
3.4.3 SVM的训练和分类 | 第32-33页 |
3.5 人脸表情识别实验结果 | 第33-36页 |
3.6 本章小结 | 第36-38页 |
4 基于隐马尔可夫模型的语音情感识别 | 第38-52页 |
4.1 情感语料库的采集 | 第38-40页 |
4.1.1 语音录制 | 第39页 |
4.1.2 听辨实验 | 第39-40页 |
4.2 语音信号处理 | 第40-42页 |
4.2.1 语音信号预加重 | 第40-41页 |
4.2.2 分帧 | 第41页 |
4.2.3 加窗 | 第41-42页 |
4.3 语音情感特征参数的选择 | 第42-43页 |
4.4 情感特征提取 | 第43-46页 |
4.4.1 语速特征提取 | 第43页 |
4.4.2 基频特征提取 | 第43-44页 |
4.4.3 能量特征提取 | 第44页 |
4.4.4 MFCC特征 | 第44-45页 |
4.4.5 共振峰特征提取 | 第45-46页 |
4.5 语音情感识别 | 第46-48页 |
4.5.1 HMM的定义 | 第46-47页 |
4.5.2 基于HMM模型的情感识别方法 | 第47-48页 |
4.6 基于HMM的语音情感识别实验 | 第48-50页 |
4.7 本章小结 | 第50-52页 |
5 融合人脸表情和语音的双模态情感识别 | 第52-58页 |
5.1 融合算法 | 第52页 |
5.2 决策层融合 | 第52-54页 |
5.2.1 求和规则 | 第53-54页 |
5.2.2 求积规则 | 第54页 |
5.3 融合人脸表情和语音信息的情感识别 | 第54-55页 |
5.3.1 语音情感识别 | 第54页 |
5.3.2 人脸表情识别 | 第54页 |
5.3.3 语音情感识别和人脸表情识别的融合 | 第54-55页 |
5.4 双模态情感识别实验结果 | 第55-57页 |
5.5 本章小结 | 第57-58页 |
6 总结与展望 | 第58-60页 |
6.1 总结 | 第58-59页 |
6.2 展望 | 第59-60页 |
参考文献 | 第60-66页 |
致谢 | 第66-68页 |
个人简历、在学期间发表的学术论文 | 第68页 |