| 摘要 | 第1-4页 |
| Abstract | 第4-8页 |
| 第一章 绪论 | 第8-12页 |
| ·AGENT与强化学习 | 第8-9页 |
| ·多AGENT强化学习 | 第9-10页 |
| ·多Agent系统 | 第9-10页 |
| ·多Agent强化学习 | 第10页 |
| ·强化学习研究现状 | 第10-11页 |
| ·本文的主要工作和组织结构 | 第11-12页 |
| 第二章 强化学习简介 | 第12-22页 |
| ·引言 | 第12页 |
| ·强化学习概述 | 第12-14页 |
| ·强化学习基本原理与模型 | 第12-13页 |
| ·强化学习要素与马尔可夫决策过程 | 第13-14页 |
| ·强化学习主要算法与探索策略 | 第14-19页 |
| ·瞬时差分(Temporal Difference, TD)学习算法 | 第15-16页 |
| ·Q学习算法 | 第16-18页 |
| ·Sarsa学习算法 | 第18页 |
| ·强化学习常用探索策略 | 第18-19页 |
| ·多AGENT强化学习理论与相关算法 | 第19-21页 |
| ·马尔可夫博弈(Markov Games) | 第19-20页 |
| ·相关算法简介 | 第20-21页 |
| ·本章小结 | 第21-22页 |
| 第三章 基于改进的启发式动作选择的强化学习 | 第22-34页 |
| ·启发式强化学习 | 第22-24页 |
| ·启发式强化学习 | 第22-23页 |
| ·定义启发函数 | 第23页 |
| ·启发式Q学习 | 第23-24页 |
| ·对启发式强化学习的分析 | 第24-25页 |
| ·启发式强化学习的改进 | 第25-28页 |
| ·基于状态回溯的启发式Q学习 | 第25-26页 |
| ·基于状态回溯的启发式Q学习分析 | 第26-28页 |
| ·机器人路径规划应用 | 第28-33页 |
| ·仿真环境设置 | 第28页 |
| ·机器人行为与学习过程的设计 | 第28-29页 |
| ·机器人在固定终点的环境中学习 | 第29-31页 |
| ·机器人在变终点的环境中学习 | 第31-33页 |
| ·本章小结 | 第33-34页 |
| 第四章 经验共享与总结的多AGENT强化学习方法 | 第34-50页 |
| ·多AGENT强化学习的分析 | 第34-36页 |
| ·多Agent强化学习的分类 | 第34-35页 |
| ·多Agent协同强化学习 | 第35-36页 |
| ·任务分解策略 | 第36-37页 |
| ·任务分解模型 | 第36页 |
| ·子任务分发 | 第36-37页 |
| ·强化学习中的一种经验总结方法 | 第37-41页 |
| ·经验总结方法 | 第37-39页 |
| ·经验总结方法实验 | 第39-41页 |
| ·多AGENT强化学习中的经验共享 | 第41-42页 |
| ·结合围捕问题的仿真实验 | 第42-49页 |
| ·围捕问题的任务描述 | 第42-43页 |
| ·围捕问题的任务分解 | 第43-44页 |
| ·经验共享与总结的学习过程 | 第44-45页 |
| ·围捕实验结果与分析 | 第45-49页 |
| ·本章小结 | 第49-50页 |
| 第五章 团队马尔可夫博弈的多AGENT强化学习 | 第50-60页 |
| ·团队马尔可夫博弈 | 第50-53页 |
| ·个体理性与集体理性 | 第50-51页 |
| ·团队马尔可夫博弈 | 第51-53页 |
| ·问题域描述 | 第53-55页 |
| ·联合行为对象的确定 | 第53-54页 |
| ·结合团队马尔可夫博弈 | 第54-55页 |
| ·仿真实验与结果分析 | 第55-59页 |
| ·仿真实验描述 | 第55-56页 |
| ·团队马尔可夫博弈学习过程 | 第56-57页 |
| ·实验结果与分析 | 第57-59页 |
| ·本章小结 | 第59-60页 |
| 第六章 结束语 | 第60-62页 |
| ·本文总结 | 第60页 |
| ·问题与展望 | 第60-62页 |
| 致谢 | 第62-64页 |
| 参考文献 | 第64-67页 |