多模态融合的情感识别研究
| 摘要 | 第1-4页 |
| ABSTRACT | 第4-7页 |
| 第一章 绪论 | 第7-11页 |
| ·课题背景 | 第7-9页 |
| ·研究内容 | 第9-10页 |
| ·全文安排 | 第10-11页 |
| 第二章 多模态情感识别研究现状 | 第11-15页 |
| ·表情识别研究现状 | 第11-12页 |
| ·语音情感识别相关研究 | 第12-13页 |
| ·模态融合相关工作 | 第13-14页 |
| ·本章小结 | 第14-15页 |
| 第三章 表情和语音特征提取 | 第15-37页 |
| ·建立面部表情图像的主动外观模型 | 第15-22页 |
| ·特征点检测方法 | 第15-16页 |
| ·建立形状模型 | 第16-20页 |
| ·建立外观模型 | 第20-21页 |
| ·联合形状和外观建立模型 | 第21-22页 |
| ·面部特征点检测 | 第22-24页 |
| ·面部动画参数提取 | 第24-26页 |
| ·语音的情感特征 | 第26-27页 |
| ·语音信号的产生机制 | 第26-27页 |
| ·语音信号的短时平稳性 | 第27页 |
| ·情感语音的时域分析 | 第27-33页 |
| ·短时平均能量 | 第28-30页 |
| ·短时自相关函数 | 第30-31页 |
| ·基音频率 | 第31-33页 |
| ·情感语音的频域分析 | 第33-35页 |
| ·本章小结 | 第35-37页 |
| 第四章 融合表情和语音的情感识别 | 第37-48页 |
| ·表情和语音 HMM 的拓扑结构 | 第37-40页 |
| ·训练表情和语音的 HMM 模型 | 第40-42页 |
| ·混合高斯分布的连续 HMM 模型 | 第40-41页 |
| ·基于 K-Means 聚类的模型初始化 | 第41页 |
| ·基于 Viterbi 算法的状态分割 | 第41-42页 |
| ·Baum-Welch 参数重估计 | 第42页 |
| ·基于 HMM 模型的表情和语音情感识别 | 第42-44页 |
| ·融合表情和语音 HMM 的多层感知器 | 第44-45页 |
| ·训练融合表情和语音的多层感知器 | 第45-47页 |
| ·融合表情和语音的情感识别 | 第47页 |
| ·本章小结 | 第47-48页 |
| 第五章 多模态融合情感识别实验 | 第48-59页 |
| ·实验目的 | 第48页 |
| ·实验数据库 | 第48-51页 |
| ·面部表情数据库 | 第48-49页 |
| ·情感语音数据库 | 第49-50页 |
| ·情感视频采集 | 第50-51页 |
| ·实验设计 | 第51-58页 |
| ·情感特征提取实验 | 第51-54页 |
| ·多模态融合情感识别实验 | 第54-55页 |
| ·多模态情感识别实验平台 | 第55-56页 |
| ·隐马尔可夫模型和多层感知器的函数实现 | 第56-58页 |
| ·实验结果及分析 | 第58页 |
| ·实验结论 | 第58-59页 |
| 第六章 总结与展望 | 第59-61页 |
| ·工作总结 | 第59页 |
| ·未来展望 | 第59-61页 |
| 参考文献 | 第61-64页 |
| 发表论文和参加科研情况说明 | 第64-65页 |
| 致谢 | 第65页 |