摘要 | 第8-10页 |
ABSTRACT | 第10-11页 |
第一章 绪论 | 第12-20页 |
1.1 研究背景与意义 | 第12-13页 |
1.2 移动机器人路径规划研究 | 第13-16页 |
1.2.1 移动机器人路径规划的主要技术 | 第13-14页 |
1.2.2 移动机器人路径规划技术的发展及现状 | 第14-16页 |
1.3 移动机器人路径规划算法存在的问题 | 第16页 |
1.4 本文主要工作 | 第16-17页 |
1.5 章节安排 | 第17-20页 |
第二章 移动机器人路径规划算法及强化学习算法 | 第20-32页 |
2.1 引言 | 第20页 |
2.2 移动机器人路径规划技术 | 第20-23页 |
2.2.1 全局路径规划算法 | 第20-22页 |
2.2.2 局部路径规划算法 | 第22-23页 |
2.3 强化学习算法理论 | 第23-31页 |
2.3.1 强化学习在移动机器人路径规划中的发展及问题 | 第24-25页 |
2.3.2 Markov决策过程 | 第25-28页 |
2.3.3 强化学习算法 | 第28-31页 |
2.4 小结 | 第31-32页 |
第三章 基于强化学习的移动机器人路径规划算法 | 第32-64页 |
3.1 引言 | 第32页 |
3.2 Q-learning算法简介 | 第32-38页 |
3.2.1 Q-learning算法的原理 | 第33-34页 |
3.2.2 Q-learning算法流程 | 第34-35页 |
3.2.3 Q-learning算法的收敛性分析 | 第35-37页 |
3.2.4 收敛步数 | 第37-38页 |
3.3 Q(λ)算法简介 | 第38-42页 |
3.3.1 跟踪迹的引入 | 第39-40页 |
3.3.2 Q(λ)算法流程 | 第40-42页 |
3.4 单链序贯回溯Q-learning算法 | 第42-45页 |
3.4.1 算法原理 | 第42-43页 |
3.4.2 算法流程 | 第43-44页 |
3.4.3 数据更新图 | 第44-45页 |
3.5 移动机器人路径规划仿真实验设计 | 第45-62页 |
3.5.1 移动机器人路径规划系统框架 | 第46-48页 |
3.5.2 路径规划策略 | 第48-50页 |
3.5.3 仿真实验结果与分析 | 第50-56页 |
3.5.4 三种算法比较 | 第56-62页 |
3.6 本章小结 | 第62-64页 |
第四章 基于强化学习的多移动机器人路径规划算法 | 第64-76页 |
4.1 引言 | 第64-65页 |
4.2 结合目标方向的单链序贯回溯Q-learning算法 | 第65-68页 |
4.2.1 结合目标方向的动作选择策略 | 第65-67页 |
4.2.2 结合目标方向的单链序贯回溯Q-learning算法的应用 | 第67-68页 |
4.3 基于强化学习的多移动机器人路径规划算法 | 第68-71页 |
4.3.1 多移动机器人路径规划问题分析 | 第68-69页 |
4.3.2 奖赏函数设计 | 第69-71页 |
4.3.3 算法流程 | 第71页 |
4.4 多移动机器人仿真实验设计与结果分析 | 第71-75页 |
4.4.1 路径规划策略 | 第72-73页 |
4.4.2 两个移动机器人的路径规划 | 第73-74页 |
4.4.3 三个移动机器人的路径规划 | 第74-75页 |
4.5 小结 | 第75-76页 |
第五章 总结和展望 | 第76-78页 |
5.1 全文总结 | 第76-77页 |
5.2 展望 | 第77-78页 |
参考文献 | 第78-86页 |
致谢 | 第86-87页 |
攻读硕士学位期间的主要科研成果 | 第87-88页 |
附件 | 第88页 |