基于眼动的人机自然交互
摘要 | 第9-10页 |
ABSTRACT | 第10-11页 |
第一章 绪论 | 第12-20页 |
1.1 眼动人机交互的研究背景和意义 | 第12-14页 |
1.1.1 眼动人机交互的研究背景 | 第12-13页 |
1.1.2 眼动人机交互的研究意义 | 第13-14页 |
1.2 国内外研究概况和水平 | 第14-18页 |
1.3 课题的研究内容 | 第18页 |
1.4 全文结构 | 第18-20页 |
第二章 眼动与眼动人机交互 | 第20-29页 |
2.1 眼动的概念 | 第20-22页 |
2.2 眼动测量技术 | 第22-23页 |
2.3 眼动人机交互的优势和问题 | 第23-26页 |
2.3.1 眼动用于人机交互的优势 | 第23-24页 |
2.3.2 需要克服的问题 | 第24-26页 |
2.3.3 发展趋势 | 第26页 |
2.4 眼动交互系统概念模型设计 | 第26-27页 |
2.5 本章小结 | 第27-29页 |
第三章 基于注视点检测的静态对象控制 | 第29-45页 |
3.1 系统总体设计 | 第29-30页 |
3.2 视线落点信息的提取 | 第30-34页 |
3.2.1 获取清晰的眼睛图像 | 第31页 |
3.2.2 识别角膜反射点 | 第31-32页 |
3.2.3 识别瞳孔 | 第32-33页 |
3.2.4 视线校准和标定 | 第33-34页 |
3.3 通过注视点提取ROI区域 | 第34-39页 |
3.3.1 注视点检测 | 第35-38页 |
3.3.2 得到ROI图像 | 第38-39页 |
3.4 ROI图像识别 | 第39-42页 |
3.5 继电器控制电路 | 第42-43页 |
3.6 在线控制实验 | 第43-44页 |
3.7 本章小结 | 第44-45页 |
第四章 基于眼动模式识别的动态对象控制 | 第45-68页 |
4.1 系统总体设计 | 第45-46页 |
4.2 眼动信号初步分析 | 第46-50页 |
4.3 眼动数据特征提取 | 第50-53页 |
4.3.1 RANSAC算法 | 第50-51页 |
4.3.2 算法使用 | 第51-53页 |
4.4 眼动模式分类 | 第53-62页 |
4.4.1 AdaBoost算法 | 第53-56页 |
4.4.2 眼动模式识别方法 | 第56-59页 |
4.4.3 眼动模式识别方法的改进 | 第59-62页 |
4.5 在线轮椅控制实验 | 第62-66页 |
4.5.1 全向移动平台 | 第62-63页 |
4.5.2 控制任务 | 第63-64页 |
4.5.3 在线实验与结果分析 | 第64-66页 |
4.6 本章小结 | 第66-68页 |
第五章 总结与展望 | 第68-70页 |
5.1 全文工作总结 | 第68-69页 |
5.2 下一步工作展望 | 第69-70页 |
致谢 | 第70-71页 |
参考文献 | 第71-74页 |
作者在学期间取得的学术成果 | 第74页 |