基于强化学习的多机器人编队方法研究
第1章 绪论 | 第1-18页 |
1.1 机器人简介 | 第9-10页 |
1.1.1 机器人的定义 | 第9-10页 |
1.1.2 智能机器人的发展过程 | 第10页 |
1.2 多机器人介绍 | 第10-13页 |
1.2.1 多机器人技术的发展状况 | 第10-11页 |
1.2.2 多机器人技术的优越性 | 第11-12页 |
1.2.3 多机器人协调中存在的问题 | 第12-13页 |
1.3 强化学习简介 | 第13-15页 |
1.3.1 强化学习的发展历史 | 第13-14页 |
1.3.2 强化学习的研究现状 | 第14-15页 |
1.4 本课题的目的以及意义 | 第15-16页 |
1.5 作者的主要工作及论文组织 | 第16-18页 |
第2章 多机器人智能编队系统的框架介绍 | 第18-24页 |
2.1 概述 | 第18-20页 |
2.2 系统介绍 | 第20-23页 |
2.2.1 系统框架 | 第20-21页 |
2.2.2 系统流程介绍 | 第21-22页 |
2.2.3 系统中的通讯问题 | 第22-23页 |
2.3 本章小结 | 第23-24页 |
第3章 应用势场栅格法实现任务级规划 | 第24-36页 |
3.1 概述 | 第24页 |
3.2 全局路径规划的几种方法 | 第24-28页 |
3.2.1 几何法 | 第24-26页 |
3.2.2 单元分解法 | 第26-27页 |
3.2.3 人工势场法 | 第27-28页 |
3.2.4 数学分析法 | 第28页 |
3.3 传统基于势场法的路径规划 | 第28-30页 |
3.3.1 势场和最小势谷 | 第28-29页 |
3.3.2 势函数以及最小势谷的产生 | 第29-30页 |
3.3.3 势全局路径规划 | 第30页 |
3.4 应用势场栅格法实现全局路径规划 | 第30-34页 |
3.4.1 算法概述 | 第31页 |
3.4.2 算法描述 | 第31-34页 |
3.5 本章小结 | 第34-36页 |
第4章 应用强化学习实现行为级规划 | 第36-51页 |
4.1 多机器人编队概述 | 第36-40页 |
4.1.1 多机器编队的定义 | 第36-37页 |
4.1.2 多机器人编队的基本队形 | 第37-38页 |
4.1.3 多机器人编队的方法介绍 | 第38-40页 |
4.2 强化学习介绍 | 第40-44页 |
4.2.1 强化学习的思想 | 第40-41页 |
4.2.2 强化学习的基本算法 | 第41-44页 |
4.3 应用强化学习实现多智能体编队 | 第44-49页 |
4.3.1 多机器人行为的选取 | 第44-45页 |
4.3.2 应用强化学习实现多机器人编队学习 | 第45-46页 |
4.3.3 随机行为选择 | 第46-47页 |
4.3.4 强化信号的确定 | 第47-48页 |
4.3.5 神经网络实现强化学习 | 第48-49页 |
4.4 本章小结 | 第49-51页 |
第5章 多机器人编队中的动作控制 | 第51-56页 |
5.1 概述 | 第51页 |
5.2 模糊逻辑的推理过程 | 第51-52页 |
5.3 机器人动作的确定 | 第52-53页 |
5.3.1 机器人编队动作的角度确定 | 第52页 |
5.3.2 机器人编队动作速度的确定 | 第52-53页 |
5.4 应用模糊算法实现在不同行为下的动作的匹配 | 第53-55页 |
5.4.1 角度匹配 | 第53-54页 |
5.4.2 速度匹配 | 第54-55页 |
5.5 本章小结 | 第55-56页 |
第6章 仿真试验 | 第56-64页 |
6.1 仿真环境及试验平台介绍 | 第56-59页 |
6.1.1 仿真软件的构造 | 第56页 |
6.1.2 仿真软件的总体设计 | 第56-59页 |
6.2 仿真及其结果的分析 | 第59-63页 |
6.2.1 仿真环境介绍 | 第59-60页 |
6.2.2 仿真结果 | 第60-63页 |
6.3 本章小结 | 第63-64页 |
结论 | 第64-65页 |
参考文献 | 第65-70页 |
攻读学位期间发表的论文和取得的科研成果 | 第70-71页 |
致谢 | 第71页 |