面向虚拟现实头盔的眼动跟踪系统研究
摘要 | 第5-6页 |
abstract | 第6页 |
第一章 绪论 | 第9-14页 |
1.1 选题的背景和意义 | 第9-10页 |
1.2 课题的相关研究现状 | 第10-12页 |
1.2.1 虚拟现实技术的发展和现状 | 第10-11页 |
1.2.2 眼动跟踪技术的发展和现状 | 第11-12页 |
1.3 本文研究内容及创新点 | 第12-13页 |
1.4 本文的结构安排 | 第13-14页 |
第二章 眼动跟踪的理论方法研究 | 第14-23页 |
2.1 人眼特征与眼球运动分析 | 第14-16页 |
2.1.1 人眼结构与视觉原理 | 第14-15页 |
2.1.2 眼球运动的形式与特点 | 第15-16页 |
2.2 眼动跟踪的理论基础 | 第16-17页 |
2.3 眼动跟踪的实验方法 | 第17-22页 |
2.3.1 眼动测量的方法分类 | 第17-19页 |
2.3.2 光反射类检测算法的对比分析 | 第19-22页 |
2.4 本章小结 | 第22-23页 |
第三章 虚拟现实眼动实验系统的设计与搭建 | 第23-33页 |
3.1 系统的总体框架 | 第23-27页 |
3.1.1 总体设计目标以及需求分析 | 第23-26页 |
3.1.2 眼动环境对比分析以及应用难点分析 | 第26-27页 |
3.2 系统的硬件实验平台搭建 | 第27-32页 |
3.2.1 虚拟现实硬件平台的选择 | 第27-28页 |
3.2.2 图像采集硬件模块的搭建 | 第28-31页 |
3.2.3 采集模块的安装和调试 | 第31-32页 |
3.3 本章小结 | 第32-33页 |
第四章 虚拟现实平台下眼图处理模块的实现 | 第33-52页 |
4.1 瞳孔定位的方法 | 第33-34页 |
4.2 虚拟现实平台下眼球识别的特殊性探讨 | 第34-43页 |
4.2.1 瞳孔图像畸变的原因分析 | 第34-36页 |
4.2.2 眼球图像的失真处理 | 第36-43页 |
4.3 虚拟现实平台下瞳孔的检测与识别 | 第43-51页 |
4.3.1 眼动图像的预处理 | 第44-45页 |
4.3.2 眼图的区域检测与特征提取 | 第45-50页 |
4.3.3 瞳孔的中心定位 | 第50-51页 |
4.4 本章小结 | 第51-52页 |
第五章 人眼视线估计模块的设计与实现 | 第52-65页 |
5.1 视线估计原理 | 第52-53页 |
5.2 视线估计的方法分析 | 第53-56页 |
5.2.1 主要的视线估计方法 | 第53-54页 |
5.2.2 优缺点对比分析 | 第54-56页 |
5.3 基于坐标系映射变换的视线估计实现与优化 | 第56-64页 |
5.3.1 多项式映射的视线估计实现 | 第56-59页 |
5.3.2 二维回归视线估计的优化实现 | 第59-63页 |
5.3.3 实验结果 | 第63-64页 |
5.4 本章小结 | 第64-65页 |
第六章 系统的测试 | 第65-70页 |
6.1 眼动测试系统 | 第65页 |
6.2 视线估计定标点测试 | 第65-67页 |
6.3 实时视点测试 | 第67页 |
6.4 眼动功能性测试 | 第67-69页 |
6.4.1 眼动交互控制 | 第67-69页 |
6.4.2 注视热点图 | 第69页 |
6.5 本章小结 | 第69-70页 |
第七章 总结与展望 | 第70-71页 |
致谢 | 第71-72页 |
参考文献 | 第72-74页 |
攻读硕士学位期间取得的成果 | 第74-75页 |