首页--工业技术论文--自动化技术、计算机技术论文--自动化技术及设备论文--机器人技术论文--机器人论文

基于上肢运动预测的人机交互与意图识别研究

摘要第4-5页
Abstract第5-6页
第1章 绪论第10-20页
    1.1 课题来源第10页
    1.2 研究背景及意义第10-11页
    1.3 研究现状分析第11-17页
        1.3.1 服务机器人发展现状第11-14页
        1.3.2 人机交互技术发展第14-16页
        1.3.3 意图识别研究第16-17页
    1.4 本文主要内容及章节安排第17-20页
        1.4.1 文章主要内容第17-18页
        1.4.2 文章组织结构第18-20页
第2章 人体上肢RGB-D图像获取与意图建模第20-33页
    2.1 引言第20页
    2.2 人体上肢RGB-D图像获取第20-22页
        2.2.1 RGB-D图像原理第20-22页
        2.2.2 人体上肢RGB-D图像获取第22页
    2.3 人机交互场景获取第22-28页
        2.3.1 相机成像原理第22-23页
        2.3.2 像平面转换第23-24页
        2.3.3 RGB图像与深度图像坐标映射第24-27页
        2.3.4 运动空间坐标系转换第27-28页
    2.4 被抓取目标位姿提取第28-30页
        2.4.1 RGB图像检测与Marker识别第29-30页
        2.4.2 坐标映射读取目标空间坐标第30页
    2.5 用户交互意图建模第30-32页
    2.6 小结第32-33页
第3章 手臂运动模式学习与轨迹预测第33-44页
    3.1 引言第33页
    3.2 手臂运动特性第33-35页
        3.2.1 人体手臂自由度第33-34页
        3.2.2 抓取过程手臂运动特性第34-35页
    3.3 手臂运动模式学习第35-41页
        3.3.1 神经网络基本理论第35-36页
        3.3.2 误差反向传播神经网络数模结构第36-40页
        3.3.3 用于运动模式学习的神经网络设计第40-41页
    3.4 手臂运动轨迹预测第41-43页
        3.4.1 训练样本的选取第41页
        3.4.2 BP神经网络结构与训练第41-43页
    3.5 小结第43-44页
第4章 基于D-S证据理论的意图识别第44-57页
    4.1 引言第44页
    4.2 D-S证据理论第44-47页
        4.2.1 基本概念第44-45页
        4.2.2 Dempster合成规则第45-47页
    4.3 基于D-S证据理论的意图识别第47-56页
        4.3.1 意图表达因子第47-50页
        4.3.2 基于D-S证据理论意图识别第50-52页
        4.3.3 意图决策规则第52-53页
        4.3.4 意图识别算法改进第53-56页
    4.4 小结第56-57页
第5章 系统设计与实验验证第57-69页
    5.1 引言第57页
    5.2 系统设计第57-58页
        5.2.1 系统框架第57-58页
        5.2.2 实验平台搭建第58页
    5.3 算法验证实验与结果分析第58-66页
        5.3.1 抓取意图识别算法验证实验Ⅰ第59-61页
        5.3.2 抓取意图识别算法验证实验Ⅱ第61-64页
        5.3.3 多种算法比较验证实验第64-66页
    5.4 协同抓取实验第66-67页
    5.5 小结第67-69页
第6章 总结与展望第69-71页
    6.1 总结第69页
    6.2 展望第69-71页
参考文献第71-75页
致谢第75-76页
附录第76页

论文共76页,点击 下载论文
上一篇:水轮机控制系统的辨识与融合控制策略研究
下一篇:嵌入式数控系统软件可靠性预计方法研究