移动机器人在未知环境下的学习控制方法研究
摘要 | 第5-6页 |
ABSTRACT | 第6-7页 |
第1章 绪论 | 第10-17页 |
1.1 研究背景及意义 | 第10-11页 |
1.2 国内外研究现状 | 第11-15页 |
1.2.1 未知环境下移动机器人传统控制方法 | 第11-13页 |
1.2.2 强化学习在机器人控制中的应用 | 第13-15页 |
1.3 本文主要研究内容 | 第15-17页 |
第2章 人工势场法在机器人学习控制中的应用 | 第17-29页 |
2.1 人工势场法原理 | 第17-22页 |
2.1.1 势函数和势场力 | 第17-19页 |
2.1.2 传统人工势场法优缺点 | 第19-22页 |
2.2 未知环境下人工势场法的改进 | 第22-25页 |
2.3 基于人工势场法的机器人未知环境下导航 | 第25-28页 |
2.3.1 Simbad仿真平台介绍 | 第25-26页 |
2.3.2 实验结果与分析 | 第26-28页 |
2.4 本章小结 | 第28-29页 |
第3章 强化学习在机器人学习控制中的应用 | 第29-42页 |
3.1 强化学习的原理 | 第29-33页 |
3.1.1 Markov决策过程 | 第29-31页 |
3.1.2 强化学习模型和基本要素 | 第31-33页 |
3.2 强化学习的经典算法 | 第33-36页 |
3.2.1 瞬时差分算法 | 第33-35页 |
3.2.2 Q学习算法 | 第35-36页 |
3.2.3 Sarsa学习算法 | 第36页 |
3.3 Dyna-Q算法在机器人导航中应用 | 第36-40页 |
3.3.1 Dyna结构算法的框架 | 第36-38页 |
3.3.2 实验结果与分析 | 第38-40页 |
3.4 本章小结 | 第40-42页 |
第4章 Dyna优化算法在机器入学习控制中的研究 | 第42-56页 |
4.1 传统Q学习算法的改进方向 | 第42-44页 |
4.2 启发式搜索算法 | 第44-46页 |
4.2.1 启发式搜索原理 | 第44-45页 |
4.2.2 经典的启发式搜索算法 | 第45-46页 |
4.3 基于启发式规划的Dyna算法设计 | 第46-49页 |
4.4 Dyna-HUF算法设计与应用 | 第49-55页 |
4.4.1 Dyna-HUF算法的原理 | 第49-52页 |
4.4.2 实验结果与分析 | 第52-55页 |
4.5 本章小结 | 第55-56页 |
第5章 改进强化学习算法在机器人导航中的应用研究 | 第56-71页 |
5.1 未知动态环境状态的定义 | 第56-58页 |
5.2 带启发式奖赏的奖赏函数设计 | 第58-61页 |
5.3 机器人在未知环境下学习控制的应用研究 | 第61-70页 |
5.3.1 面向应用的强化学习导航算法 | 第61-63页 |
5.3.2 仿真实验结果与分析 | 第63-68页 |
5.3.3 实际环境应用结果与分析 | 第68-70页 |
5.4 本章小结 | 第70-71页 |
第6章 总结与展望 | 第71-73页 |
6.1 总结 | 第71-72页 |
6.2 展望 | 第72-73页 |
参考文献 | 第73-77页 |
致谢 | 第77-78页 |
攻读学位期间参加的科研项目和成果 | 第78页 |