基于表情识别的虚拟环境交互技术研究
摘要 | 第3-5页 |
abstract | 第5-6页 |
第1章 绪论 | 第10-18页 |
1.1 课题研究背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.3 研究难点 | 第14-15页 |
1.4 课题研究工作及章节安排 | 第15-18页 |
第2章 基于表情识别的虚拟环境交互关键技术 | 第18-34页 |
2.1 虚拟环境交互技术 | 第18-21页 |
2.2 Kinect深度传感器 | 第21-23页 |
2.3 人脸表情识别技术 | 第23-29页 |
2.3.1 人脸表情预处理 | 第24-25页 |
2.3.2 人脸表情特征提取 | 第25页 |
2.3.3 人脸表情分类算法 | 第25-29页 |
2.4 常用表情数据库简介 | 第29-31页 |
2.5 多库融合的深度信息表情数据库构建 | 第31页 |
2.6 本章小结 | 第31-34页 |
第3章 静态人脸表情识别 | 第34-48页 |
3.1 融合深度图像和多通道特征的表情识别方法 | 第34-35页 |
3.2 人脸图像预处理 | 第35页 |
3.3 表情特征提取 | 第35-41页 |
3.3.1 面部纹理特征提取 | 第35-38页 |
3.3.2 面部几何特征提取 | 第38-41页 |
3.4 分类器参数寻优 | 第41-42页 |
3.5 实验与结果分析 | 第42-47页 |
3.5.1 实验环境 | 第42页 |
3.5.2 灰度图像下的测试及结果分析 | 第42-44页 |
3.5.3 RGB-D图像下的测试及结果分析 | 第44-47页 |
3.6 本章小结 | 第47-48页 |
第4章 动态人脸表情识别及动画生成 | 第48-72页 |
4.1 动态表情识别方法 | 第48-51页 |
4.2 动态表情识别实验与结果分析 | 第51-55页 |
4.2.1 测试环境 | 第51页 |
4.2.2 实验及结果分析 | 第51-55页 |
4.3 虚拟角色面部表情生成方法 | 第55-64页 |
4.3.1 虚拟人脸建模 | 第56-58页 |
4.3.2 人脸动作捕捉 | 第58-60页 |
4.3.3 虚拟人脸表情动画 | 第60-64页 |
4.4 虚拟环境中表情识别测试工具 | 第64-71页 |
4.4.1 测试工具功能框架 | 第64-65页 |
4.4.2 功能实现与测试 | 第65-70页 |
4.4.3 性能测试 | 第70-71页 |
4.5 本章小结 | 第71-72页 |
第5章 基于表情识别的虚拟环境交互系统 | 第72-84页 |
5.1 系统框架及功能结构 | 第72-74页 |
5.2 系统开发环境 | 第74-77页 |
5.2.1 系统硬件开发平台 | 第74-75页 |
5.2.2 系统软件开发平台 | 第75-77页 |
5.3 虚拟环境表情识别交互系统 | 第77-78页 |
5.4 测试及结果分析 | 第78-81页 |
5.5 系统性能测试 | 第81-82页 |
5.6 本章小结 | 第82-84页 |
第6章 总结与展望 | 第84-86页 |
6.1 全文工作总结 | 第84-85页 |
6.2 下一步的研究与展望 | 第85-86页 |
参考文献 | 第86-94页 |
致谢 | 第94-96页 |
攻读硕士学位期间从事的科研工作及取得的成果 | 第96页 |