| 摘要 | 第5-6页 |
| ABSTRACT | 第6-7页 |
| 符号对照表 | 第11-12页 |
| 缩略语对照表 | 第12-15页 |
| 第一章 绪论 | 第15-23页 |
| 1.1 本文研究背景与意义 | 第15-16页 |
| 1.2 视线跟踪技术的历史和发展 | 第16-19页 |
| 1.2.1 干扰式视线跟踪技术 | 第16-17页 |
| 1.2.2 非干扰式视线跟踪技术 | 第17页 |
| 1.2.3 流行眼动仪产品的综述 | 第17-19页 |
| 1.3 视线跟踪技术的应用领域 | 第19-21页 |
| 1.4 论文的主要内容 | 第21-23页 |
| 第二章 视线跟踪技术的概述 | 第23-37页 |
| 2.1 视线跟踪技术 | 第23-30页 |
| 2.1.1 基于二维的视线跟踪方法 | 第23-25页 |
| 2.1.2 基于三维的视线跟踪方法 | 第25-29页 |
| 2.1.3 二维和三维视线跟踪技术的比较 | 第29-30页 |
| 2.2 视线跟踪系统的标定技术 | 第30-34页 |
| 2.2.1 神经网络标定方法 | 第30-32页 |
| 2.2.2 平滑尾随标定方法 | 第32-34页 |
| 2.3 免标定视线跟踪方法 | 第34-36页 |
| 2.3.1 视觉显著性实现免标定 | 第34-35页 |
| 2.3.2 基于三维双眼取中点免标定方法 | 第35-36页 |
| 2.4 本章小结 | 第36-37页 |
| 第三章 二维视线跟踪系统单点标定算法的研究 | 第37-51页 |
| 3.1 二维自由头动下视线跟踪技术流程 | 第37-40页 |
| 3.1.1 三阶多项式求解眼图到场景图之间的映射关系 | 第37-38页 |
| 3.1.2 场景图到真实被视平面之间映射矩阵的求解 | 第38-40页 |
| 3.2 自由头动下单点标定算法的研究 | 第40-45页 |
| 3.2.1 单点标定方法原理 | 第40-42页 |
| 3.2.2 单点标定方法的参数设置 | 第42-44页 |
| 3.2.3 局部点对取代全局点对建立映射关系 | 第44-45页 |
| 3.3 算法验证 | 第45-49页 |
| 3.3.1 实验设备及操作过程 | 第45-47页 |
| 3.3.2 实验结果及分析 | 第47-49页 |
| 3.4 本章小节 | 第49-51页 |
| 第四章 三维双眼视线跟踪系统实时标定算法的研究 | 第51-67页 |
| 4.1 三维视线跟踪系统分析 | 第51-53页 |
| 4.1.1 单眼单点标定视轴与光轴夹角 | 第51-52页 |
| 4.1.2 双眼三维视线跟踪系统过程 | 第52-53页 |
| 4.2 算法具体原理 | 第53-56页 |
| 4.3 算法验证 | 第56-64页 |
| 4.3.1 算法仿真设计 | 第56-57页 |
| 4.3.2 仿真结果及分析 | 第57-61页 |
| 4.3.3 实际 3D双眼系统下实验结果 | 第61-64页 |
| 4.4 本章小节 | 第64-67页 |
| 第五章 结论与展望 | 第67-69页 |
| 5.1 研究结论 | 第67页 |
| 5.2 研究展望 | 第67-69页 |
| 参考文献 | 第69-73页 |
| 致谢 | 第73-75页 |
| 作者介绍 | 第75-76页 |