基于上肢运动预测的人机交互与意图识别研究
摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第10-20页 |
1.1 课题来源 | 第10页 |
1.2 研究背景及意义 | 第10-11页 |
1.3 研究现状分析 | 第11-17页 |
1.3.1 服务机器人发展现状 | 第11-14页 |
1.3.2 人机交互技术发展 | 第14-16页 |
1.3.3 意图识别研究 | 第16-17页 |
1.4 本文主要内容及章节安排 | 第17-20页 |
1.4.1 文章主要内容 | 第17-18页 |
1.4.2 文章组织结构 | 第18-20页 |
第2章 人体上肢RGB-D图像获取与意图建模 | 第20-33页 |
2.1 引言 | 第20页 |
2.2 人体上肢RGB-D图像获取 | 第20-22页 |
2.2.1 RGB-D图像原理 | 第20-22页 |
2.2.2 人体上肢RGB-D图像获取 | 第22页 |
2.3 人机交互场景获取 | 第22-28页 |
2.3.1 相机成像原理 | 第22-23页 |
2.3.2 像平面转换 | 第23-24页 |
2.3.3 RGB图像与深度图像坐标映射 | 第24-27页 |
2.3.4 运动空间坐标系转换 | 第27-28页 |
2.4 被抓取目标位姿提取 | 第28-30页 |
2.4.1 RGB图像检测与Marker识别 | 第29-30页 |
2.4.2 坐标映射读取目标空间坐标 | 第30页 |
2.5 用户交互意图建模 | 第30-32页 |
2.6 小结 | 第32-33页 |
第3章 手臂运动模式学习与轨迹预测 | 第33-44页 |
3.1 引言 | 第33页 |
3.2 手臂运动特性 | 第33-35页 |
3.2.1 人体手臂自由度 | 第33-34页 |
3.2.2 抓取过程手臂运动特性 | 第34-35页 |
3.3 手臂运动模式学习 | 第35-41页 |
3.3.1 神经网络基本理论 | 第35-36页 |
3.3.2 误差反向传播神经网络数模结构 | 第36-40页 |
3.3.3 用于运动模式学习的神经网络设计 | 第40-41页 |
3.4 手臂运动轨迹预测 | 第41-43页 |
3.4.1 训练样本的选取 | 第41页 |
3.4.2 BP神经网络结构与训练 | 第41-43页 |
3.5 小结 | 第43-44页 |
第4章 基于D-S证据理论的意图识别 | 第44-57页 |
4.1 引言 | 第44页 |
4.2 D-S证据理论 | 第44-47页 |
4.2.1 基本概念 | 第44-45页 |
4.2.2 Dempster合成规则 | 第45-47页 |
4.3 基于D-S证据理论的意图识别 | 第47-56页 |
4.3.1 意图表达因子 | 第47-50页 |
4.3.2 基于D-S证据理论意图识别 | 第50-52页 |
4.3.3 意图决策规则 | 第52-53页 |
4.3.4 意图识别算法改进 | 第53-56页 |
4.4 小结 | 第56-57页 |
第5章 系统设计与实验验证 | 第57-69页 |
5.1 引言 | 第57页 |
5.2 系统设计 | 第57-58页 |
5.2.1 系统框架 | 第57-58页 |
5.2.2 实验平台搭建 | 第58页 |
5.3 算法验证实验与结果分析 | 第58-66页 |
5.3.1 抓取意图识别算法验证实验Ⅰ | 第59-61页 |
5.3.2 抓取意图识别算法验证实验Ⅱ | 第61-64页 |
5.3.3 多种算法比较验证实验 | 第64-66页 |
5.4 协同抓取实验 | 第66-67页 |
5.5 小结 | 第67-69页 |
第6章 总结与展望 | 第69-71页 |
6.1 总结 | 第69页 |
6.2 展望 | 第69-71页 |
参考文献 | 第71-75页 |
致谢 | 第75-76页 |
附录 | 第76页 |