摘要 | 第5-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-17页 |
1.1 眼嘴控的研究背景和意义 | 第10-11页 |
1.2 眼嘴控技术的国内外研究现状 | 第11-14页 |
1.3 眼嘴控技术的难点 | 第14-15页 |
1.4 本文工作 | 第15页 |
1.5 论文结构 | 第15-17页 |
第2章 眼嘴的三维数据捕捉及数据预处理 | 第17-25页 |
2.1 眼嘴状态捕获设备 | 第17-18页 |
2.2 基于骨骼追踪的人脸识别 | 第18-19页 |
2.3 面部运动数据处理 | 第19-20页 |
2.4 中性表情模型的建立 | 第20-21页 |
2.5 基于KINECT的眼嘴三维数据捕捉 | 第21-22页 |
2.6 三维人脸数据的获取及处理 | 第22-24页 |
2.6.1 三维人脸数据的形式 | 第22-23页 |
2.6.2 三维人脸数据的存储 | 第23-24页 |
2.7 本章小结 | 第24-25页 |
第3章 基于临界状态模板的眼嘴状态判定 | 第25-35页 |
3.1 状态判定值 | 第25-27页 |
3.2 眼嘴的临界模板 | 第27-28页 |
3.3 LBP算法 | 第28-29页 |
3.4 图像纹理相似度的计算 | 第29-30页 |
3.5 基于纹理特征匹配的临界状态检测 | 第30-31页 |
3.6 眼嘴的瞬时状态判定 | 第31页 |
3.7 眼嘴的瞬时状态判定结果 | 第31-33页 |
3.8 本章小结 | 第33-35页 |
第4章 指令集的设计及与常用交互设备的映射 | 第35-41页 |
4.1 眼嘴状态指令集的设计 | 第35-36页 |
4.2 常用交互设备与眼嘴状态指令的映射关系 | 第36-40页 |
4.2.1 拉普拉斯坐标几何意义及权值 | 第36-37页 |
4.2.2 键盘的常用指令与眼嘴状态集的映射 | 第37-38页 |
4.2.3 体感游戏的常用指令与眼嘴状态集的映射 | 第38-40页 |
4.3 本章小结 | 第40-41页 |
第5章 眼嘴操控系统的设计与实现 | 第41-56页 |
5.1 系统的总体介绍 | 第41-47页 |
5.1.1 开发平台 | 第41-42页 |
5.1.2 开发环境的配置 | 第42-43页 |
5.1.3 系统的总体结构 | 第43页 |
5.1.4 交互平台的设计 | 第43-44页 |
5.1.5 功能模块的设计 | 第44-45页 |
5.1.6 系统的程序流程 | 第45-47页 |
5.2 系统的实现过程 | 第47-51页 |
5.2.1 基于Kinect的面部三维数据捕获的具体实现 | 第47-48页 |
5.2.2 虚拟场景的构建 | 第48-51页 |
5.3 实验结果与分析 | 第51-55页 |
5.4 本章小结 | 第55-56页 |
结论 | 第56-58页 |
参考文献 | 第58-61页 |
攻读硕士学位期间承担的科研任务与主要成果 | 第61-62页 |
致谢 | 第62-63页 |
作者简介 | 第63页 |