摘要 | 第5-6页 |
ABSTRACT | 第6页 |
第1章 绪论 | 第10-19页 |
1.1 引言 | 第10页 |
1.2 机器人发展现状及趋势 | 第10-12页 |
1.3 人机交互技术概述 | 第12-16页 |
1.3.1 人机交互技术简介 | 第12-13页 |
1.3.2 人机交互技术国内外发展现状及趋势 | 第13-14页 |
1.3.3 手势识别概述 | 第14-16页 |
1.4 Leap Motion与Kinect应用现状 | 第16-18页 |
1.4.1 Kinect的应用 | 第16-17页 |
1.4.2 Leap Motion的应用 | 第17-18页 |
1.5 本文主要研究内容及章节安排 | 第18-19页 |
第2章 体感传感器介绍与工作原理分析 | 第19-30页 |
2.1 体感传感器Kinect | 第19-27页 |
2.1.1 Kinect硬件介绍 | 第19-20页 |
2.1.2 Kinect开发环境介绍 | 第20-21页 |
2.1.3 Kinect深度图像成像原理 | 第21-23页 |
2.1.4 Kinect数据结构 | 第23-27页 |
2.2 体感传感器Leap Motion | 第27-28页 |
2.2.1 Leap Motion介绍 | 第27-28页 |
2.2.2 Leap Motion工作原理 | 第28页 |
2.3 Leap Motion与Kinect性能对比 | 第28-29页 |
2.4 本章小结 | 第29-30页 |
第3章 目标识别跟踪和手势识别 | 第30-46页 |
3.1 基于Kinect的目标识别与跟踪 | 第30-35页 |
3.1.1 基于颜色直方图匹配的目标人员识别 | 第30-31页 |
3.1.2 基于深度图像的人体骨架系统提取 | 第31-35页 |
3.2 静态手势识别 | 第35-39页 |
3.2.1 基于视觉的静态手势识别 | 第35-37页 |
3.2.2 基于Leap Motion的静态手势识别 | 第37-39页 |
3.3 动态手势识别 | 第39-45页 |
3.3.1 基于视觉的动态手势识别 | 第39-40页 |
3.3.2 基于Leap Motion的动态手势识别 | 第40-45页 |
3.4 本章小结 | 第45-46页 |
第4章 人机交互系统组成及功能实现 | 第46-53页 |
4.1 人机交互系统总体结构 | 第46-47页 |
4.2 基于Kinect的目标识别与跟踪功能的实现 | 第47-48页 |
4.2.1 目标人员身份识别 | 第47页 |
4.2.2 目标跟踪及位置坐标转换 | 第47-48页 |
4.3 基于Leap Motion的手势数据采集与应用 | 第48-51页 |
4.3.1 手势数据采集 | 第48-49页 |
4.3.2 坐标系转换及增量值计算 | 第49-51页 |
4.4 机器人与PC机通讯原理 | 第51-52页 |
4.5 本章小结 | 第52-53页 |
第5章 实验设计与分析 | 第53-67页 |
5.1 实验平台搭建 | 第53-55页 |
5.1.1 人机交互系统实验平台 | 第53-54页 |
5.1.2 硬件组成及开发环境介绍 | 第54-55页 |
5.2 人机交互系统界面设计 | 第55页 |
5.3 目标识别与跟踪 | 第55-61页 |
5.3.1 目标识别 | 第55-58页 |
5.3.2 目标跟踪 | 第58-61页 |
5.4 手势识别实验及数据分析 | 第61-65页 |
5.4.1 手势识别实验 | 第62-64页 |
5.4.2 滤波算法分析 | 第64-65页 |
5.5 本章小结 | 第65-67页 |
结论 | 第67-68页 |
参考文献 | 第68-72页 |
攻读硕士学位期间承担的科研任务与主要成果 | 第72-73页 |
致谢 | 第73页 |