摘要 | 第1-6页 |
ABSTRACT | 第6-7页 |
致谢 | 第7-8页 |
目录 | 第8-11页 |
图表清单 | 第11-12页 |
第一章 绪论 | 第12-23页 |
·智能Agent概述 | 第12-15页 |
·Agent定义 | 第12-13页 |
·多Agent系统 | 第13-14页 |
·多 Agent系统的强化学习 | 第14-15页 |
·模糊逻辑概述 | 第15-19页 |
·模糊集合 | 第15-16页 |
·模糊逻辑 | 第16-17页 |
·模糊推理 | 第17-18页 |
·模糊推理系统 | 第18-19页 |
·RoboCup研究概述 | 第19-22页 |
·RoboCup简介 | 第19页 |
·RoboCup的研究意义 | 第19-20页 |
·RoboCup仿真组比赛 | 第20-21页 |
·RoboCup仿真组研究现状 | 第21-22页 |
·论文组织 | 第22-23页 |
第二章 强化学习 | 第23-31页 |
·强化学习概述 | 第23-26页 |
·强化学习原理和结构 | 第23-24页 |
·强化学习分类 | 第24-25页 |
·强化学习中的关键问题 | 第25-26页 |
·常见的强化学习算法 | 第26-28页 |
·TD算法 | 第26-27页 |
·Q学习 | 第27页 |
·Sarsa学习算法 | 第27-28页 |
·Dyna-Q算法 | 第28页 |
·多Agent强化学习 | 第28-30页 |
·合作型多 Agent强化学习 | 第29页 |
·竞争型多 Agent强化学习 | 第29页 |
·半竞争型多 Agent强化学习 | 第29-30页 |
·本章小结 | 第30-31页 |
第三章 模糊 Q学习算法的研究 | 第31-39页 |
·Q学习算法 | 第31-32页 |
·连续状态的Q学习 | 第32-34页 |
·基于神经网络的 Q学习 | 第32-33页 |
·基于 CMAC的Q学习 | 第33-34页 |
·Fuzzy Q学习 | 第34-35页 |
·模糊推理系统 | 第34页 |
·模糊推理系统的 Q学习 | 第34-35页 |
·RoboCup中的踢球问题 | 第35-38页 |
·问题描述 | 第35-36页 |
·Fuzzy Q学习解决踢球问题 | 第36-38页 |
·实验结果及分析 | 第38页 |
·本章小结 | 第38-39页 |
第四章 多回报模糊 Q学习算法的研究 | 第39-46页 |
·多回报模糊 Q学习算法 | 第39-40页 |
·状态空间的表示 | 第39页 |
·回报值的确定 | 第39-40页 |
·算法描述 | 第40页 |
·RoboCup中的截球问题 | 第40-43页 |
·问题描述 | 第40-41页 |
·截球实验 | 第41-42页 |
·结果分析 | 第42-43页 |
·RoboCup中的2 VS 1问题 | 第43-45页 |
·问题描述 | 第43页 |
·2 VS 1问题建模 | 第43-44页 |
·实验结果分析 | 第44-45页 |
·本章小结 | 第45-46页 |
第五章 基于先验知识的模块化 Fuzzy Q学习算法研究 | 第46-55页 |
·基于 Agent团队的强化学习 | 第46-47页 |
·RoboCup中的3 VS 2问题 | 第47-48页 |
·模块化 Fuzzy Q学习算法 | 第48-52页 |
·模块化 Q学习算法 | 第48-49页 |
·状态空间的表示 | 第49-50页 |
·改进的模块化 Q学习算法 | 第50-52页 |
·基于先验知识的学习算法 | 第52-53页 |
·仿真实验及分析 | 第53页 |
·本章小结 | 第53-55页 |
第六章 结束语 | 第55-57页 |
·本文主要工作与创新点 | 第55页 |
·进一步工作的展望 | 第55-57页 |
参考文献 | 第57-61页 |
研究生期间主要科研工作及成果 | 第61页 |