摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 引言 | 第9-20页 |
1.1 研究背景与意义 | 第9-11页 |
1.2 相关研究现状 | 第11-18页 |
1.2.1 国内外机器人研究现状 | 第11-14页 |
1.2.2 机器人技能学习方法概述 | 第14-18页 |
1.3 本文研究重点 | 第18页 |
1.4 本文章节安排 | 第18-20页 |
第2章 机器人的运动学 | 第20-34页 |
2.1 机器人空间旋量描述和坐标变换 | 第20-22页 |
2.2.1 旋量代数 | 第20页 |
2.2.2 速度旋量与Mozzi瞬轴 | 第20-22页 |
2.2 机器人正运动学旋量表示 | 第22-26页 |
2.2.1 机器人正运动学 | 第22-23页 |
2.2.2 坐标变换 | 第23-26页 |
2.3 多自由度机器人位置和姿态的旋量计算 | 第26-33页 |
2.3.1 多自由度机器人正运动D-H表示 | 第26-28页 |
2.3.2 多自由度机器人正运动旋量表示 | 第28-31页 |
2.3.3 旋量表达与D-H坐标表达的关系 | 第31-33页 |
2.4 本章小结 | 第33-34页 |
第3章 相似技能学习 | 第34-51页 |
3.1 机器人技能学习与轨迹规划 | 第34-36页 |
3.2 动态运动基元(DMPs) | 第36-41页 |
3.2.1 相变量调整 | 第38-39页 |
3.2.2 多自由度机器人运动 | 第39-41页 |
3.3 数据驱动的DMPs-GMR | 第41-50页 |
3.3.1 混合高斯 | 第42-46页 |
3.3.2 高斯混合回归(GMR) | 第46-49页 |
3.3.3 基于DMPs-GMR的模仿学习 | 第49-50页 |
3.4 本章小结 | 第50-51页 |
第4章 基于GMR-PI~2的特殊技能学习 | 第51-62页 |
4.1 基于随机最优控制的优化探索 | 第51-54页 |
4.1.1 从DMPs-GMR到随机最优控制 | 第51-53页 |
4.1.2 HJB方程到线性PDE的转换 | 第53-54页 |
4.2 基于路径积分的策略提高(PI~2 ) | 第54-56页 |
4.3 GMR-PI~2目标优化算法总结 | 第56-60页 |
4.3.1 代价函数 | 第59-60页 |
4.4 基函数自动重组 | 第60-61页 |
4.4.1 基函数范围的局限性 | 第60-61页 |
4.5 本章小结 | 第61-62页 |
第5章 GMR-PI~2算法的应用 | 第62-72页 |
5.1 GMR-PI~2算法验证——过一个点抓取实验仿真 | 第63-68页 |
5.1.1 实验阐述 | 第63-64页 |
5.1.2 实验对比分析 | 第64-68页 |
5.2 基函数自动重组验证实验——过两点标记实验仿真 | 第68-71页 |
5.3 本章小结 | 第71-72页 |
第6章 总结与展望 | 第72-74页 |
6.1 总结 | 第72-73页 |
6.2 展望 | 第73-74页 |
致谢 | 第74-75页 |
参考文献 | 第75-77页 |
作者在攻读硕士学位期间发表的学术论文 | 第77页 |