面向人机交互的注视点估计技术研究
摘要 | 第5-7页 |
Abstract | 第7-8页 |
第1章 绪论 | 第11-17页 |
1.1. 研究背景 | 第11-13页 |
1.2. 研究现状 | 第13-14页 |
1.3. 本文的主要工作 | 第14-15页 |
1.4. 本文的内容组织 | 第15-17页 |
第2章 基于注视点估计的人机交互技术 | 第17-22页 |
2.1. 现有注视点人机交互技术存在的问题 | 第17-18页 |
2.2. 本文技术的使用场景 | 第18-19页 |
2.3. 本文技术的处理流程及关键技术 | 第19-21页 |
2.3.1. 处理流程 | 第19-20页 |
2.3.2. 关键技术 | 第20-21页 |
2.4. 本章小结 | 第21-22页 |
第3章 基于映射和虹膜中心修正的注视点估计算法 | 第22-41页 |
3.1. 眼球结构简介 | 第22-23页 |
3.2. 注视点估计技术 | 第23-27页 |
3.2.1. 基于特征的方法 | 第24-26页 |
3.2.2. 基于外观的方法 | 第26-27页 |
3.2.3. 现有注视点估计技术讨论 | 第27页 |
3.3. 本文技术限定条件下的难点及解决思路 | 第27-29页 |
3.3.1. 技术难点 | 第28页 |
3.3.2. 解决思路 | 第28-29页 |
3.4. 基于映射和虹膜中心修正的注视点估计算法 | 第29-31页 |
3.4.1. MIGE算法思想 | 第29页 |
3.4.2. MIGE算法流程 | 第29-31页 |
3.5. MIGE算法中的关键技术 | 第31-35页 |
3.5.1. 带位置调节的固定形状区域生长算法 | 第31-33页 |
3.5.2. 眼球几何模型及虹膜中心修正 | 第33-35页 |
3.6. 实验及结果分析 | 第35-40页 |
3.6.1. 实验设备 | 第35-36页 |
3.6.2. 实验设置 | 第36-38页 |
3.6.3. 评价标准 | 第38页 |
3.6.4. 实验结果及分析 | 第38-40页 |
3.7. 本章小结 | 第40-41页 |
第4章 注视点人机交互动作的实现技术研究 | 第41-51页 |
4.1. 现有交互动作实现介绍 | 第41-42页 |
4.2. 交互动作实现改进思路 | 第42-43页 |
4.3. 眨眼检测和特征眨眼分类 | 第43-47页 |
4.3.1. 现有技术介绍 | 第43-44页 |
4.3.2. 基于局部最值求取的眨眼检测算法 | 第44-47页 |
4.3.3. 特征眨眼分类算法 | 第47页 |
4.4. 实验及结果分析 | 第47-50页 |
4.4.1. 实验设置 | 第48页 |
4.4.2. 实验结果 | 第48-49页 |
4.4.3. 实验结果分析 | 第49-50页 |
4.5. 本章小结 | 第50-51页 |
第5章 注视点人机交互原型系统 | 第51-55页 |
5.1. 设计与实现 | 第51-52页 |
5.2. 系统框架 | 第52页 |
5.3. 系统展示 | 第52-54页 |
5.4. 本章小结 | 第54-55页 |
第6章 总结与展望 | 第55-57页 |
6.1. 本文的工作总结 | 第55-56页 |
6.2. 未来工作展望 | 第56-57页 |
参考文献 | 第57-62页 |
硕士生期间发表的论文 | 第62页 |
硕士生期间参与的科研项目 | 第62-63页 |
致谢 | 第63-64页 |