多机器人追捕问题的研究
| 摘要 | 第4-5页 |
| Abstract | 第5-6页 |
| 第1章 绪论 | 第9-15页 |
| 1.1 课题背景及意义 | 第9-10页 |
| 1.2 国内外研究水平与发展现状 | 第10-13页 |
| 1.3 论文的主要研究内容 | 第13-15页 |
| 第2章 强化学习 | 第15-27页 |
| 2.1 强化学习的基本理论 | 第15-16页 |
| 2.2 强化学习系统的组成要素 | 第16-17页 |
| 2.2.1 回报值函数 | 第16页 |
| 2.2.2 策略 | 第16页 |
| 2.2.3 值函数 | 第16-17页 |
| 2.2.4 环境模型 | 第17页 |
| 2.3 马尔科夫决策过程 | 第17-20页 |
| 2.4 强化学习主要算法 | 第20-23页 |
| 2.4.1 探索策略 | 第20-21页 |
| 2.4.2 瞬时差分(TD)算法 | 第21-22页 |
| 2.4.3 Q 学习算法 | 第22-23页 |
| 2.4.4 Sarsa算法 | 第23页 |
| 2.5 强化学习实例 | 第23-26页 |
| 2.6 本章小结 | 第26-27页 |
| 第3章 基于OPTION的多机器人追捕算法 | 第27-40页 |
| 3.1 追捕问题描述 | 第27-31页 |
| 3.1.1 状态抽象 | 第27-30页 |
| 3.1.2 动作抽象 | 第30页 |
| 3.1.3 回报函数 | 第30-31页 |
| 3.2 分层强化学习 | 第31-34页 |
| 3.2.1 半马尔科夫决策过程 | 第31-32页 |
| 3.2.2 OPTION分层强化学习方法 | 第32-34页 |
| 3.3 OPTION- Q 算法实现围捕 | 第34-35页 |
| 3.3.1 OPTION抽象 | 第34页 |
| 3.3.2 算法流程 | 第34-35页 |
| 3.4 实验结果及分析 | 第35-39页 |
| 3.5 本章小结 | 第39-40页 |
| 第4章 基于值函数分解改进的多机器人追捕算法 | 第40-53页 |
| 4.1 值函数分解法 | 第40-47页 |
| 4.1.1 基本原理 | 第40-42页 |
| 4.1.2 值函数分解 | 第42-47页 |
| 4.2 改进的OPTION- Q 算法实现围捕 | 第47-48页 |
| 4.3 实验结果及分析 | 第48-52页 |
| 4.4 本章小结 | 第52-53页 |
| 结论 | 第53-54页 |
| 参考文献 | 第54-59页 |
| 致谢 | 第59页 |