首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

新型眼嘴操控人机交互模式研究与实践

摘要第5-6页
Abstract第6-7页
第1章 绪论第10-17页
    1.1 眼嘴控的研究背景和意义第10-11页
    1.2 眼嘴控技术的国内外研究现状第11-14页
    1.3 眼嘴控技术的难点第14-15页
    1.4 本文工作第15页
    1.5 论文结构第15-17页
第2章 眼嘴的三维数据捕捉及数据预处理第17-25页
    2.1 眼嘴状态捕获设备第17-18页
    2.2 基于骨骼追踪的人脸识别第18-19页
    2.3 面部运动数据处理第19-20页
    2.4 中性表情模型的建立第20-21页
    2.5 基于KINECT的眼嘴三维数据捕捉第21-22页
    2.6 三维人脸数据的获取及处理第22-24页
        2.6.1 三维人脸数据的形式第22-23页
        2.6.2 三维人脸数据的存储第23-24页
    2.7 本章小结第24-25页
第3章 基于临界状态模板的眼嘴状态判定第25-35页
    3.1 状态判定值第25-27页
    3.2 眼嘴的临界模板第27-28页
    3.3 LBP算法第28-29页
    3.4 图像纹理相似度的计算第29-30页
    3.5 基于纹理特征匹配的临界状态检测第30-31页
    3.6 眼嘴的瞬时状态判定第31页
    3.7 眼嘴的瞬时状态判定结果第31-33页
    3.8 本章小结第33-35页
第4章 指令集的设计及与常用交互设备的映射第35-41页
    4.1 眼嘴状态指令集的设计第35-36页
    4.2 常用交互设备与眼嘴状态指令的映射关系第36-40页
        4.2.1 拉普拉斯坐标几何意义及权值第36-37页
        4.2.2 键盘的常用指令与眼嘴状态集的映射第37-38页
        4.2.3 体感游戏的常用指令与眼嘴状态集的映射第38-40页
    4.3 本章小结第40-41页
第5章 眼嘴操控系统的设计与实现第41-56页
    5.1 系统的总体介绍第41-47页
        5.1.1 开发平台第41-42页
        5.1.2 开发环境的配置第42-43页
        5.1.3 系统的总体结构第43页
        5.1.4 交互平台的设计第43-44页
        5.1.5 功能模块的设计第44-45页
        5.1.6 系统的程序流程第45-47页
    5.2 系统的实现过程第47-51页
        5.2.1 基于Kinect的面部三维数据捕获的具体实现第47-48页
        5.2.2 虚拟场景的构建第48-51页
    5.3 实验结果与分析第51-55页
    5.4 本章小结第55-56页
结论第56-58页
参考文献第58-61页
攻读硕士学位期间承担的科研任务与主要成果第61-62页
致谢第62-63页
作者简介第63页

论文共63页,点击 下载论文
上一篇:基于反馈的自优化并发控制研究与实现
下一篇:基于路网的多查询点KNN研究