基于Q学习算法的移动机器人路径规划方法研究
摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-26页 |
1.1 课题背景及研究意义 | 第10-11页 |
1.2 移动机器人路径规划技术 | 第11-15页 |
1.2.1 静态环境中路径规划技术 | 第11-13页 |
1.2.2 动态环境中路径规划技术 | 第13-15页 |
1.3 深度学习算法及其在图像处理中的应用 | 第15-20页 |
1.3.1 深度学习原理 | 第15-19页 |
1.3.2 图像处理应用 | 第19-20页 |
1.4 强化学习算法及其在路径规划中的应用 | 第20-23页 |
1.4.1 强化学习算法 | 第20-21页 |
1.4.2 马尔科夫决策过程 | 第21-22页 |
1.4.3 强化学习在路径规划中的应用 | 第22-23页 |
1.5 论文的研究内容及结构安排 | 第23-26页 |
1.5.1 主要研究内容 | 第23-24页 |
1.5.2 论文结构安排 | 第24-26页 |
第2章 基于DAE-Q算法的静态环境路径规划 | 第26-40页 |
2.1 算法原理 | 第26-31页 |
2.1.1 DAE算法 | 第26-30页 |
2.1.2 Q学习算法 | 第30-31页 |
2.2 算法设计 | 第31-33页 |
2.3 路径规划仿真实验 | 第33-38页 |
2.3.1 路径规划系统框架 | 第33-35页 |
2.3.2 图像特征提取 | 第35-36页 |
2.3.3 环境特征与位置信息拟合 | 第36页 |
2.3.4 仿真实验结果 | 第36-38页 |
2.4 小结 | 第38-40页 |
第3章 改进DAE-Q算法的静态环境路径规划 | 第40-46页 |
3.1 改进DAE-Q算法原理 | 第40-43页 |
3.1.1 缺陷分析 | 第40-42页 |
3.1.2 改进方法 | 第42-43页 |
3.2 算法路径规划应用 | 第43-44页 |
3.3 改进DAE-Q算法的路径规划仿真实验 | 第44-45页 |
3.4 小结 | 第45-46页 |
第4章 动态环境下基于GA-Q分层策略的路径规划 | 第46-62页 |
4.1 V-REP仿真软件场景设计 | 第46-48页 |
4.2 GA-Q分层规划策略 | 第48-49页 |
4.3 基于遗传算法的全局路径规划 | 第49-56页 |
4.3.1 环境建模和基因编码 | 第50-51页 |
4.3.2 适应度函数的设计 | 第51-52页 |
4.3.3 遗传算子 | 第52-54页 |
4.3.4 参数设定 | 第54-55页 |
4.3.5 全局路径规划仿真 | 第55-56页 |
4.4 基于Q学习算法的动态避障 | 第56-59页 |
4.4.1 Q值表的设计 | 第56-57页 |
4.4.2 R值的设计 | 第57-58页 |
4.4.3 动作的设计 | 第58页 |
4.4.4 返回原始路径 | 第58-59页 |
4.5 动态环境路径规划仿真 | 第59-60页 |
4.6 小结 | 第60-62页 |
结论 | 第62-64页 |
参考文献 | 第64-68页 |
攻读硕士学位期间所获得的研究成果 | 第68-70页 |
致谢 | 第70页 |