首页--工业技术论文--自动化技术、计算机技术论文--计算技术、计算机技术论文--计算机的应用论文--信息处理(信息加工)论文--模式识别与装置论文

模拟训练系统人员三维位置检测与交互技术研究

摘要第6-7页
abstract第7页
第1章 绪论第11-21页
    1.1 研究背景与意义第11-13页
    1.2 技术构成第13-18页
        1.2.1 虚拟视景技术第13-15页
        1.2.2 体感交互技术第15-18页
    1.3 主要研究内容第18页
    1.4 文章结构安排第18-21页
第2章 模拟训练系统中的身体交互技术第21-39页
    2.1 空间位置跟踪技术第21-25页
        2.1.1 电磁跟踪技术第21-22页
        2.1.2 超声波跟踪技术第22-23页
        2.1.3 机械跟踪技术第23页
        2.1.4 惯性导航式动作捕捉第23-24页
        2.1.5 光学跟踪技术第24-25页
    2.2 Kinect简介第25-27页
    2.3 Kinect for Windows SDK第27-29页
    2.4 三维定位工作原理第29-35页
        2.4.1 深度图像成像原理第29-31页
        2.4.2 深度距离运算第31页
        2.4.3 骨骼跟踪第31-34页
        2.4.4 动作识别第34-35页
    2.5 三维坐标获取及变换第35-37页
        2.5.1 三维坐标的获取第35-36页
        2.5.2 坐标变换第36-37页
    2.6 本章小结第37-39页
第3章 Kinect彩色与红外图像数据采集与处理第39-46页
    3.1 使用Arduino直接采集深度数据第39-42页
        3.1.1 硬件设备Arduino第39页
        3.1.2 驱动Kinect的程序框架第39-40页
        3.1.3 Processing语言第40页
        3.1.4 Arduino对深度数据的采集第40-42页
    3.2 使用Kinect for Windows SDK采集图像第42-44页
        3.2.1 彩色图像的采集第42-43页
        3.2.2 红外图像的采集第43-44页
    3.3 Kinect深度数据处理第44-45页
    3.4 本章小结第45-46页
第4章 模拟训练系统建模第46-66页
    4.1 模拟训练系统框架设计第46-47页
    4.2 研究开发平台第47-49页
    4.3 系统流程概述第49-50页
    4.4 情境与逻辑策划第50-52页
    4.5 基本场景要素第52-55页
    4.6 程序模块设计第55-60页
        4.6.1 项目管理模块第55-58页
        4.6.2 基本功能模块第58-60页
    4.7 资源效果运用第60-64页
        4.7.1 光源效果第60页
        4.7.2 物理效果第60-61页
        4.7.3 Prefab第61-62页
        4.7.4 角色的AI第62-64页
        4.7.5 声音与特效第64页
    4.8 本章小结第64-66页
第5章 基于Kinect的人机交互技术开发第66-80页
    5.1 体感交互的实现第66-72页
        5.1.1 Kinect与Unity的连通第66-68页
        5.1.2 骨骼关节点映射第68-69页
        5.1.3 骨骼位置数据第69-72页
    5.2 动作定义第72-79页
        5.2.1 实验分析第72-77页
        5.2.2 动作识别的实现第77-79页
        5.2.3 实验结论第79页
    5.3 本章小结第79-80页
结论第80-82页
参考文献第82-86页
攻读硕士学位期间发表的论文和获得的科研成果第86-87页
致谢第87-88页

论文共88页,点击 下载论文
上一篇:分层计算感知模拟在目标识别技术中的应用
下一篇:微波产品的自动测试系统软件设计