| 摘要 | 第4-5页 |
| Abstract | 第5-6页 |
| 第1章 绪论 | 第9-13页 |
| 1.1 研究背景及意义 | 第9-10页 |
| 1.2 国内外研究现状 | 第10页 |
| 1.3 本文主要研究内容 | 第10-11页 |
| 1.4 本文工作安排 | 第11-13页 |
| 第2章 人机交互原理概述 | 第13-17页 |
| 2.1 人机交互原理 | 第13页 |
| 2.2 人机交互发展历史 | 第13-15页 |
| 2.3 自然交互技术发展趋势 | 第15页 |
| 2.4 体感操作 | 第15-16页 |
| 2.5 本章小结 | 第16-17页 |
| 第3章 Kinect传感器及相关技术 | 第17-25页 |
| 3.1 Kinect传感器硬件组成 | 第17-19页 |
| 3.1.1 Kinect硬件核心 | 第17-18页 |
| 3.1.2 Kinect的2个摄像头及其投影机 | 第18-19页 |
| 3.1.3 Kinect麦克风阵列 | 第19页 |
| 3.2 基于“管道”的系统架构 | 第19-20页 |
| 3.2.1 骨骼跟踪 | 第19-20页 |
| 3.2.2 动作识别 | 第20页 |
| 3.3 深度信息成像原理 | 第20-22页 |
| 3.3.1 激光散斑形成的原理 | 第21页 |
| 3.3.2 光源标定的过程 | 第21-22页 |
| 3.4 由深度信息形成骨骼信息 | 第22-23页 |
| 3.4.1 分辨对象动静状态,识别人体特征 | 第22页 |
| 3.4.2 身体部位分类、识别重要关节 | 第22-23页 |
| 3.5 本章小结 | 第23-25页 |
| 第4章 基于人体肌肉运动知觉的系统功能实现 | 第25-46页 |
| 4.1 Kinect for Windows SDK | 第25-28页 |
| 4.2 彩色图像数据 | 第28页 |
| 4.3 深度图像数据 | 第28页 |
| 4.4 从数据中区别用户 | 第28-29页 |
| 4.5 数据流的获取 | 第29页 |
| 4.6 骨骼跟踪 | 第29-30页 |
| 4.6.1 骨骼信息的检索 | 第30页 |
| 4.6.2 主动跟踪与被动跟踪 | 第30页 |
| 4.7 NUI坐标 | 第30-32页 |
| 4.7.1 空间中深度信息坐标 | 第30-31页 |
| 4.7.2 骨骼信息坐标 | 第31页 |
| 4.7.3 坐标在空间中的变换 | 第31-32页 |
| 4.8 系统功能实现 | 第32-41页 |
| 4.8.1 初始化参数配置界面 | 第32-37页 |
| 4.8.2 水平方向空间划分 | 第37-39页 |
| 4.8.3 垂直方向空间划分 | 第39-40页 |
| 4.8.4 彩色图像载入 | 第40-41页 |
| 4.9 具体操作流程 | 第41-45页 |
| 4.10 本章小结 | 第45-46页 |
| 第5章 总结与展望 | 第46-48页 |
| 5.1 工作总结 | 第46页 |
| 5.2 研究展望 | 第46-48页 |
| 参考文献 | 第48-51页 |
| 致谢 | 第51页 |