基于LeapMotion的自然手势交互技术在工业机器人示教中的研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第一章 绪论 | 第10-22页 |
1.1 课题背景 | 第10-12页 |
1.2 国内外研究现状 | 第12-18页 |
1.2.1 手势交互发展现状 | 第12-15页 |
1.2.2 机器人示教交互研究现状 | 第15-18页 |
1.3 课题研究内容及意义 | 第18-19页 |
1.3.1 研究内容 | 第18-19页 |
1.3.2 课题拟解决的关键问题及研究意义 | 第19页 |
1.4 课题研究框架 | 第19-22页 |
第二章 自然手势示教模型设计及系统组成 | 第22-41页 |
2.1 手势交互特点 | 第22-23页 |
2.2 基于心智模型的示教手势设计方法 | 第23-35页 |
2.2.1 手势示教交互需求分析 | 第25-27页 |
2.2.2 心智模型信息提取方法设计 | 第27-33页 |
2.2.3 示教手势姿态确定 | 第33-35页 |
2.3 面向机器人的手势示教交互系统组成 | 第35-39页 |
2.3.1 前端数据采集模块 | 第37页 |
2.3.2 从控端机器人模块 | 第37-38页 |
2.3.3 反馈模块 | 第38-39页 |
2.4 本章小结 | 第39-41页 |
第三章 自然示教交互手势识别及姿态映射 | 第41-52页 |
3.1 示教手势姿态识别 | 第41-45页 |
3.1.1 示教手势识别概述 | 第41-42页 |
3.1.2 手势特征提取 | 第42-43页 |
3.1.3 示教手势识别原理 | 第43-45页 |
3.2 示教手势识别实验 | 第45-47页 |
3.2.1 手势数据样本采集 | 第45-46页 |
3.2.2 示教手势识别实验结果分析 | 第46-47页 |
3.3 空间位置姿态动态映射 | 第47-51页 |
3.3.1 映射手势数据预处理 | 第47页 |
3.3.2 机器人空间限位处理 | 第47-48页 |
3.3.3 空间位置映射 | 第48-51页 |
3.4 本章小结 | 第51-52页 |
第四章 手势示教交互系统的实验与评估 | 第52-67页 |
4.1 手势示教实验设计目标 | 第52页 |
4.2 实验平台搭建 | 第52-53页 |
4.3 手势示教实验 | 第53-66页 |
4.3.1 手势示教用户体验实验 | 第53-56页 |
4.3.2 手势示教实际案例任务实验 | 第56-59页 |
4.3.3 示教方式对比性实验 | 第59-65页 |
4.3.4 手势示教系统实际案例 | 第65-66页 |
4.4 本章小结 | 第66-67页 |
第五章 总结与展望 | 第67-68页 |
参考文献 | 第68-71页 |
攻读博士/硕士学位期间取得的研究成果 | 第71-72页 |
致谢 | 第72-73页 |
附件 | 第73页 |