操控员视线跟踪技术研究
摘要 | 第3-4页 |
abstract | 第4-5页 |
1 绪论 | 第8-14页 |
1.1 视线跟踪技术介绍 | 第8-9页 |
1.1.1 视线跟踪技术概述 | 第8-9页 |
1.1.2 课题研究目的与意义 | 第9页 |
1.2 视线跟踪技术主要应用领域 | 第9-10页 |
1.3 国内外发展前景 | 第10-11页 |
1.3.1 国外发展 | 第10页 |
1.3.2 国内发展 | 第10-11页 |
1.4 课题研究问题的提出 | 第11-12页 |
1.5 研究内容 | 第12-13页 |
1.6 论文结构 | 第13-14页 |
2 系统设计 | 第14-19页 |
2.1 系统硬件结构设计 | 第14-16页 |
2.1.1 开发平台基本配置 | 第14页 |
2.1.2 视频图像采集模块 | 第14-15页 |
2.1.3 头部姿态估计模块 | 第15-16页 |
2.2 系统软件结构设计 | 第16页 |
2.3 操控员视线跟踪研究关键技术 | 第16-17页 |
2.4 操控员视线跟踪研究方案 | 第17-18页 |
2.5 本章小结 | 第18-19页 |
3 操控员视线参数检测 | 第19-49页 |
3.1 人脸与人眼检测 | 第19-28页 |
3.1.1 人脸检测 | 第19-27页 |
3.1.2 人眼检测 | 第27-28页 |
3.2 瞳孔和普尔钦斑检测 | 第28-33页 |
3.2.1 瞳孔检测 | 第28-31页 |
3.2.2 普尔钦斑检测 | 第31-33页 |
3.3 瞳孔跟踪 | 第33-38页 |
3.3.1 粒子滤波和卡尔曼滤波相结合的基本原理 | 第33-36页 |
3.3.2 瞳孔目标跟踪过程 | 第36-38页 |
3.4 头部运动跟踪 | 第38-48页 |
3.4.1 摄像机标定 | 第39-44页 |
3.4.2 头部姿态跟踪方法 | 第44-48页 |
3.5 本章小结 | 第48-49页 |
4 操控员视线落点估计 | 第49-56页 |
4.1 常见视线估计方法 | 第49-50页 |
4.1.1 二维映射模型的视线估计方法 | 第49-50页 |
4.1.2 三维视线估计方法 | 第50页 |
4.2 基于透视法的视线估计 | 第50-55页 |
4.2.1 四光源普尔钦斑成像原理 | 第51页 |
4.2.2 视线估计 | 第51-54页 |
4.2.3 头部姿态数据补偿处理 | 第54-55页 |
4.3 本章小结 | 第55-56页 |
5 异常显示区域与视线落点匹配研究 | 第56-67页 |
5.1 人眼特性分析 | 第56-59页 |
5.1.1 人眼的构造 | 第56-57页 |
5.1.2 人体双目视觉范围 | 第57-58页 |
5.1.3 人眼视觉特性与外界因素的关系 | 第58-59页 |
5.2 操控面板布局分析 | 第59-61页 |
5.2.1 操控面板介绍 | 第59-60页 |
5.2.2 操控面板显示区域划分 | 第60-61页 |
5.3 视线落点和异常显示区域的匹配 | 第61-66页 |
5.3.1 注视点和异常显示区域匹配方法 | 第61-64页 |
5.3.2 操控员视线跟踪系统模拟仿真实现 | 第64页 |
5.3.3 匹配结果评价与分析 | 第64-66页 |
5.4 本章小结 | 第66-67页 |
6 总结和展望 | 第67-70页 |
6.1 工作总结 | 第67-68页 |
6.2 课题展望 | 第68-70页 |
参考文献 | 第70-73页 |
攻读硕士学位期间发表的论文 | 第73-74页 |
致谢 | 第74-77页 |