多模态融合的情感识别研究
摘要 | 第1-4页 |
ABSTRACT | 第4-7页 |
第一章 绪论 | 第7-11页 |
·课题背景 | 第7-9页 |
·研究内容 | 第9-10页 |
·全文安排 | 第10-11页 |
第二章 多模态情感识别研究现状 | 第11-15页 |
·表情识别研究现状 | 第11-12页 |
·语音情感识别相关研究 | 第12-13页 |
·模态融合相关工作 | 第13-14页 |
·本章小结 | 第14-15页 |
第三章 表情和语音特征提取 | 第15-37页 |
·建立面部表情图像的主动外观模型 | 第15-22页 |
·特征点检测方法 | 第15-16页 |
·建立形状模型 | 第16-20页 |
·建立外观模型 | 第20-21页 |
·联合形状和外观建立模型 | 第21-22页 |
·面部特征点检测 | 第22-24页 |
·面部动画参数提取 | 第24-26页 |
·语音的情感特征 | 第26-27页 |
·语音信号的产生机制 | 第26-27页 |
·语音信号的短时平稳性 | 第27页 |
·情感语音的时域分析 | 第27-33页 |
·短时平均能量 | 第28-30页 |
·短时自相关函数 | 第30-31页 |
·基音频率 | 第31-33页 |
·情感语音的频域分析 | 第33-35页 |
·本章小结 | 第35-37页 |
第四章 融合表情和语音的情感识别 | 第37-48页 |
·表情和语音 HMM 的拓扑结构 | 第37-40页 |
·训练表情和语音的 HMM 模型 | 第40-42页 |
·混合高斯分布的连续 HMM 模型 | 第40-41页 |
·基于 K-Means 聚类的模型初始化 | 第41页 |
·基于 Viterbi 算法的状态分割 | 第41-42页 |
·Baum-Welch 参数重估计 | 第42页 |
·基于 HMM 模型的表情和语音情感识别 | 第42-44页 |
·融合表情和语音 HMM 的多层感知器 | 第44-45页 |
·训练融合表情和语音的多层感知器 | 第45-47页 |
·融合表情和语音的情感识别 | 第47页 |
·本章小结 | 第47-48页 |
第五章 多模态融合情感识别实验 | 第48-59页 |
·实验目的 | 第48页 |
·实验数据库 | 第48-51页 |
·面部表情数据库 | 第48-49页 |
·情感语音数据库 | 第49-50页 |
·情感视频采集 | 第50-51页 |
·实验设计 | 第51-58页 |
·情感特征提取实验 | 第51-54页 |
·多模态融合情感识别实验 | 第54-55页 |
·多模态情感识别实验平台 | 第55-56页 |
·隐马尔可夫模型和多层感知器的函数实现 | 第56-58页 |
·实验结果及分析 | 第58页 |
·实验结论 | 第58-59页 |
第六章 总结与展望 | 第59-61页 |
·工作总结 | 第59页 |
·未来展望 | 第59-61页 |
参考文献 | 第61-64页 |
发表论文和参加科研情况说明 | 第64-65页 |
致谢 | 第65页 |