摘要 | 第4-5页 |
Abstract | 第5-6页 |
第一章 绪论 | 第10-16页 |
1.1 引言 | 第10-11页 |
1.2 国内外研究现状 | 第11-14页 |
1.2.1 增强现实技术 | 第11-12页 |
1.2.2 眼控交互技术 | 第12-14页 |
1.3 课题研究内容 | 第14-15页 |
1.4 论文结构安排 | 第15-16页 |
第二章 面向增强现实的人机交互技术 | 第16-24页 |
2.1 增强现实技术概述 | 第16页 |
2.2 增强现实技术的应用 | 第16-17页 |
2.3 增强现实技术的发展趋势 | 第17-19页 |
2.4 面向增强现实的人机交互设计准则 | 第19-20页 |
2.4.1 虚实叠加性 | 第19-20页 |
2.4.2 三维性 | 第20页 |
2.4.3 交互实时性 | 第20页 |
2.5 面向增强现实的人机交互新需求 | 第20-22页 |
2.5.1 传统增强现实交互技术中的不足 | 第20-21页 |
2.5.2 满足增强现实交互新需求的下一代交互方式 | 第21-22页 |
2.6 本章小结 | 第22-24页 |
第三章 眼控交互关键技术 | 第24-34页 |
3.1 眼动的基本类型 | 第24-25页 |
3.1.1 注视 | 第24-25页 |
3.1.2 眼跳 | 第25页 |
3.1.3 平滑尾随 | 第25页 |
3.2 眼动仪的基本原理 | 第25-26页 |
3.3 眼控交互设计原则 | 第26-27页 |
3.4 眼控交互技术开发框架 | 第27-29页 |
3.5 经典眼动交互方式 | 第29-33页 |
3.5.1 注视 | 第29-30页 |
3.5.2 眨眼 | 第30页 |
3.5.3 注视姿势 | 第30-33页 |
3.6 本章小结 | 第33-34页 |
第四章 对角线眼控交互方法 | 第34-54页 |
4.1 眼动分类方法介绍 | 第34-38页 |
4.1.1 速度阈值识别法 | 第34-35页 |
4.1.2 卡尔曼滤波识别法 | 第35-38页 |
4.2 对角线眼动方式 | 第38-51页 |
4.2.1 基于眼跳的对角线眼动方式界面设计 | 第39页 |
4.2.2 眼跳速度的确定 | 第39-42页 |
4.2.3 合适阈值的选取 | 第42-51页 |
4.3 本章小结 | 第51-54页 |
第五章 EYEARHUD系统开发 | 第54-76页 |
5.1 EYEARHUD开发背景 | 第54-56页 |
5.1.1 现代汽车中的人机界面(HMI) | 第54页 |
5.1.2 EYEARHUD开发依据 | 第54-56页 |
5.2 EYEARHUD功能介绍 | 第56-58页 |
5.3 EYEARHUD实验环境及软硬件平台 | 第58-60页 |
5.4 EYEARHUD开发模块 | 第60-67页 |
5.4.1 跟踪校验模块 | 第60-64页 |
5.4.2 眼跳学习界面 | 第64-65页 |
5.4.3 系统主界面 | 第65-66页 |
5.4.4 子功能显示模块 | 第66-67页 |
5.5 EYEARHUD测试 | 第67-74页 |
5.5.1 软件测试 | 第67-68页 |
5.5.2 EYEARHUD可用性评估 | 第68-74页 |
5.6 总结 | 第74-76页 |
第六章 总结与展望 | 第76-78页 |
6.1 总结 | 第76-77页 |
6.2 展望 | 第77-78页 |
参考文献 | 第78-82页 |
附录:EYEARHUD用户满意度调查问卷 | 第82-84页 |
发表论文和参加科研情况说明 | 第84-86页 |
致谢 | 第86-87页 |