摘要 | 第6-7页 |
abstract | 第7页 |
第1章 绪论 | 第11-21页 |
1.1 研究背景与意义 | 第11-13页 |
1.2 技术构成 | 第13-18页 |
1.2.1 虚拟视景技术 | 第13-15页 |
1.2.2 体感交互技术 | 第15-18页 |
1.3 主要研究内容 | 第18页 |
1.4 文章结构安排 | 第18-21页 |
第2章 模拟训练系统中的身体交互技术 | 第21-39页 |
2.1 空间位置跟踪技术 | 第21-25页 |
2.1.1 电磁跟踪技术 | 第21-22页 |
2.1.2 超声波跟踪技术 | 第22-23页 |
2.1.3 机械跟踪技术 | 第23页 |
2.1.4 惯性导航式动作捕捉 | 第23-24页 |
2.1.5 光学跟踪技术 | 第24-25页 |
2.2 Kinect简介 | 第25-27页 |
2.3 Kinect for Windows SDK | 第27-29页 |
2.4 三维定位工作原理 | 第29-35页 |
2.4.1 深度图像成像原理 | 第29-31页 |
2.4.2 深度距离运算 | 第31页 |
2.4.3 骨骼跟踪 | 第31-34页 |
2.4.4 动作识别 | 第34-35页 |
2.5 三维坐标获取及变换 | 第35-37页 |
2.5.1 三维坐标的获取 | 第35-36页 |
2.5.2 坐标变换 | 第36-37页 |
2.6 本章小结 | 第37-39页 |
第3章 Kinect彩色与红外图像数据采集与处理 | 第39-46页 |
3.1 使用Arduino直接采集深度数据 | 第39-42页 |
3.1.1 硬件设备Arduino | 第39页 |
3.1.2 驱动Kinect的程序框架 | 第39-40页 |
3.1.3 Processing语言 | 第40页 |
3.1.4 Arduino对深度数据的采集 | 第40-42页 |
3.2 使用Kinect for Windows SDK采集图像 | 第42-44页 |
3.2.1 彩色图像的采集 | 第42-43页 |
3.2.2 红外图像的采集 | 第43-44页 |
3.3 Kinect深度数据处理 | 第44-45页 |
3.4 本章小结 | 第45-46页 |
第4章 模拟训练系统建模 | 第46-66页 |
4.1 模拟训练系统框架设计 | 第46-47页 |
4.2 研究开发平台 | 第47-49页 |
4.3 系统流程概述 | 第49-50页 |
4.4 情境与逻辑策划 | 第50-52页 |
4.5 基本场景要素 | 第52-55页 |
4.6 程序模块设计 | 第55-60页 |
4.6.1 项目管理模块 | 第55-58页 |
4.6.2 基本功能模块 | 第58-60页 |
4.7 资源效果运用 | 第60-64页 |
4.7.1 光源效果 | 第60页 |
4.7.2 物理效果 | 第60-61页 |
4.7.3 Prefab | 第61-62页 |
4.7.4 角色的AI | 第62-64页 |
4.7.5 声音与特效 | 第64页 |
4.8 本章小结 | 第64-66页 |
第5章 基于Kinect的人机交互技术开发 | 第66-80页 |
5.1 体感交互的实现 | 第66-72页 |
5.1.1 Kinect与Unity的连通 | 第66-68页 |
5.1.2 骨骼关节点映射 | 第68-69页 |
5.1.3 骨骼位置数据 | 第69-72页 |
5.2 动作定义 | 第72-79页 |
5.2.1 实验分析 | 第72-77页 |
5.2.2 动作识别的实现 | 第77-79页 |
5.2.3 实验结论 | 第79页 |
5.3 本章小结 | 第79-80页 |
结论 | 第80-82页 |
参考文献 | 第82-86页 |
攻读硕士学位期间发表的论文和获得的科研成果 | 第86-87页 |
致谢 | 第87-88页 |