| 摘要 | 第1-6页 |
| ABSTRACT | 第6-7页 |
| 致谢 | 第7-8页 |
| 目录 | 第8-11页 |
| 图表清单 | 第11-12页 |
| 第一章 绪论 | 第12-23页 |
| ·智能Agent概述 | 第12-15页 |
| ·Agent定义 | 第12-13页 |
| ·多Agent系统 | 第13-14页 |
| ·多 Agent系统的强化学习 | 第14-15页 |
| ·模糊逻辑概述 | 第15-19页 |
| ·模糊集合 | 第15-16页 |
| ·模糊逻辑 | 第16-17页 |
| ·模糊推理 | 第17-18页 |
| ·模糊推理系统 | 第18-19页 |
| ·RoboCup研究概述 | 第19-22页 |
| ·RoboCup简介 | 第19页 |
| ·RoboCup的研究意义 | 第19-20页 |
| ·RoboCup仿真组比赛 | 第20-21页 |
| ·RoboCup仿真组研究现状 | 第21-22页 |
| ·论文组织 | 第22-23页 |
| 第二章 强化学习 | 第23-31页 |
| ·强化学习概述 | 第23-26页 |
| ·强化学习原理和结构 | 第23-24页 |
| ·强化学习分类 | 第24-25页 |
| ·强化学习中的关键问题 | 第25-26页 |
| ·常见的强化学习算法 | 第26-28页 |
| ·TD算法 | 第26-27页 |
| ·Q学习 | 第27页 |
| ·Sarsa学习算法 | 第27-28页 |
| ·Dyna-Q算法 | 第28页 |
| ·多Agent强化学习 | 第28-30页 |
| ·合作型多 Agent强化学习 | 第29页 |
| ·竞争型多 Agent强化学习 | 第29页 |
| ·半竞争型多 Agent强化学习 | 第29-30页 |
| ·本章小结 | 第30-31页 |
| 第三章 模糊 Q学习算法的研究 | 第31-39页 |
| ·Q学习算法 | 第31-32页 |
| ·连续状态的Q学习 | 第32-34页 |
| ·基于神经网络的 Q学习 | 第32-33页 |
| ·基于 CMAC的Q学习 | 第33-34页 |
| ·Fuzzy Q学习 | 第34-35页 |
| ·模糊推理系统 | 第34页 |
| ·模糊推理系统的 Q学习 | 第34-35页 |
| ·RoboCup中的踢球问题 | 第35-38页 |
| ·问题描述 | 第35-36页 |
| ·Fuzzy Q学习解决踢球问题 | 第36-38页 |
| ·实验结果及分析 | 第38页 |
| ·本章小结 | 第38-39页 |
| 第四章 多回报模糊 Q学习算法的研究 | 第39-46页 |
| ·多回报模糊 Q学习算法 | 第39-40页 |
| ·状态空间的表示 | 第39页 |
| ·回报值的确定 | 第39-40页 |
| ·算法描述 | 第40页 |
| ·RoboCup中的截球问题 | 第40-43页 |
| ·问题描述 | 第40-41页 |
| ·截球实验 | 第41-42页 |
| ·结果分析 | 第42-43页 |
| ·RoboCup中的2 VS 1问题 | 第43-45页 |
| ·问题描述 | 第43页 |
| ·2 VS 1问题建模 | 第43-44页 |
| ·实验结果分析 | 第44-45页 |
| ·本章小结 | 第45-46页 |
| 第五章 基于先验知识的模块化 Fuzzy Q学习算法研究 | 第46-55页 |
| ·基于 Agent团队的强化学习 | 第46-47页 |
| ·RoboCup中的3 VS 2问题 | 第47-48页 |
| ·模块化 Fuzzy Q学习算法 | 第48-52页 |
| ·模块化 Q学习算法 | 第48-49页 |
| ·状态空间的表示 | 第49-50页 |
| ·改进的模块化 Q学习算法 | 第50-52页 |
| ·基于先验知识的学习算法 | 第52-53页 |
| ·仿真实验及分析 | 第53页 |
| ·本章小结 | 第53-55页 |
| 第六章 结束语 | 第55-57页 |
| ·本文主要工作与创新点 | 第55页 |
| ·进一步工作的展望 | 第55-57页 |
| 参考文献 | 第57-61页 |
| 研究生期间主要科研工作及成果 | 第61页 |