| 摘要 | 第5-6页 |
| Abstract | 第6-7页 |
| 第1章 绪论 | 第10-19页 |
| 1.1 研究背景及意义 | 第10-12页 |
| 1.2 国内外研究现状 | 第12-16页 |
| 1.2.1 国外研究现状 | 第12-14页 |
| 1.2.2 国内研究现状 | 第14-16页 |
| 1.3 人脸表情识别技术难点分析 | 第16-17页 |
| 1.4 本文研究内容和结构 | 第17-19页 |
| 第2章 基于视频的表情识别系统架构 | 第19-27页 |
| 2.1 基于视频的表情识别框架 | 第19页 |
| 2.2 情感数据库的选择 | 第19-21页 |
| 2.2.1 Piotr Dollar自建情感数据库介绍 | 第20-21页 |
| 2.2.2 课题组自建情感数据库介绍 | 第21页 |
| 2.3 人脸特征点的检测与定位 | 第21-22页 |
| 2.4 人脸表情特征提取 | 第22-24页 |
| 2.5 表情识别方法 | 第24-26页 |
| 2.6 本章小结 | 第26-27页 |
| 第3章 人脸特征点检测与定位 | 第27-33页 |
| 3.1 Harris角点检测算法 | 第27-29页 |
| 3.1.1 检测原理 | 第27-29页 |
| 3.1.2 算法步骤 | 第29页 |
| 3.2 时空特征点的检测 | 第29-30页 |
| 3.3 cubids的提取 | 第30-32页 |
| 3.4 本章小结 | 第32-33页 |
| 第4章 基于视频的情感时空融合特征提取算法 | 第33-52页 |
| 4.1 PCA算法 | 第33-35页 |
| 4.2 特征提取 | 第35-46页 |
| 4.2.1 基于Piotr Dollar描述算子的特征提取 | 第36-37页 |
| 4.2.2 基于CBP_TOP的特征提取 | 第37-44页 |
| 4.2.3 融合的时空特征 | 第44-46页 |
| 4.3 情感视频的描述 | 第46-51页 |
| 4.3.1 词袋模型法 | 第46-49页 |
| 4.3.2 词袋模型法在情感视频描述中的应用 | 第49-51页 |
| 4.4 本章小结 | 第51-52页 |
| 第5章 表情分类器的设计与仿真实验 | 第52-63页 |
| 5.1 分类器的设计思想与原理 | 第52-54页 |
| 5.1.1 K最近邻算法 | 第52-54页 |
| 5.2 仿真结果与分析 | 第54-62页 |
| 5.2.1 基于Piotr Dollar自建情感数据库的仿真实验 | 第54-55页 |
| 5.2.2 基于华理自建情感数据库的仿真实验 | 第55-62页 |
| 5.3 本章小结 | 第62-63页 |
| 第6章 总结与展望 | 第63-66页 |
| 6.1 本文工作总结 | 第63-64页 |
| 6.2 未来工作展望 | 第64-66页 |
| 参考文献 | 第66-71页 |
| 致谢 | 第71-72页 |
| 攻读硕士学位期间发表的论文 | 第72页 |