首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--计算机仿真论文

增强现实眼控交互技术的研究及应用

摘要第4-5页
Abstract第5-6页
第一章 绪论第10-16页
    1.1 引言第10-11页
    1.2 国内外研究现状第11-14页
        1.2.1 增强现实技术第11-12页
        1.2.2 眼控交互技术第12-14页
    1.3 课题研究内容第14-15页
    1.4 论文结构安排第15-16页
第二章 面向增强现实的人机交互技术第16-24页
    2.1 增强现实技术概述第16页
    2.2 增强现实技术的应用第16-17页
    2.3 增强现实技术的发展趋势第17-19页
    2.4 面向增强现实的人机交互设计准则第19-20页
        2.4.1 虚实叠加性第19-20页
        2.4.2 三维性第20页
        2.4.3 交互实时性第20页
    2.5 面向增强现实的人机交互新需求第20-22页
        2.5.1 传统增强现实交互技术中的不足第20-21页
        2.5.2 满足增强现实交互新需求的下一代交互方式第21-22页
    2.6 本章小结第22-24页
第三章 眼控交互关键技术第24-34页
    3.1 眼动的基本类型第24-25页
        3.1.1 注视第24-25页
        3.1.2 眼跳第25页
        3.1.3 平滑尾随第25页
    3.2 眼动仪的基本原理第25-26页
    3.3 眼控交互设计原则第26-27页
    3.4 眼控交互技术开发框架第27-29页
    3.5 经典眼动交互方式第29-33页
        3.5.1 注视第29-30页
        3.5.2 眨眼第30页
        3.5.3 注视姿势第30-33页
    3.6 本章小结第33-34页
第四章 对角线眼控交互方法第34-54页
    4.1 眼动分类方法介绍第34-38页
        4.1.1 速度阈值识别法第34-35页
        4.1.2 卡尔曼滤波识别法第35-38页
    4.2 对角线眼动方式第38-51页
        4.2.1 基于眼跳的对角线眼动方式界面设计第39页
        4.2.2 眼跳速度的确定第39-42页
        4.2.3 合适阈值的选取第42-51页
    4.3 本章小结第51-54页
第五章 EYEARHUD系统开发第54-76页
    5.1 EYEARHUD开发背景第54-56页
        5.1.1 现代汽车中的人机界面(HMI)第54页
        5.1.2 EYEARHUD开发依据第54-56页
    5.2 EYEARHUD功能介绍第56-58页
    5.3 EYEARHUD实验环境及软硬件平台第58-60页
    5.4 EYEARHUD开发模块第60-67页
        5.4.1 跟踪校验模块第60-64页
        5.4.2 眼跳学习界面第64-65页
        5.4.3 系统主界面第65-66页
        5.4.4 子功能显示模块第66-67页
    5.5 EYEARHUD测试第67-74页
        5.5.1 软件测试第67-68页
        5.5.2 EYEARHUD可用性评估第68-74页
    5.6 总结第74-76页
第六章 总结与展望第76-78页
    6.1 总结第76-77页
    6.2 展望第77-78页
参考文献第78-82页
附录:EYEARHUD用户满意度调查问卷第82-84页
发表论文和参加科研情况说明第84-86页
致谢第86-87页

论文共87页,点击 下载论文
上一篇:基于深度学习的图像分类技术研究
下一篇:基于细分的曲线曲面多分辨率表示研究