多智能体的协作与规划研究及其在RoboCup中的应用
| 摘要 | 第1-4页 |
| Abstract | 第4-8页 |
| 第一章 绪论 | 第8-12页 |
| ·研究背景 | 第8页 |
| ·RoboCup 研究现状 | 第8-9页 |
| ·研究目的与意义 | 第9-10页 |
| ·MAS 主要研究内容 | 第10页 |
| ·本文结构组成 | 第10-12页 |
| 第二章 RoboCup 仿真比赛系统 | 第12-20页 |
| ·RoboCup 仿真环境介绍 | 第12-13页 |
| ·SoccerServer 仿真环境模型 | 第13-18页 |
| ·比赛场地和球员 | 第14-16页 |
| ·球员的动作 | 第16-17页 |
| ·球员的感知 | 第17-18页 |
| ·RoboCup 仿真环境的特点 | 第18-19页 |
| ·小结 | 第19-20页 |
| 第三章 MAS 协作与规划 | 第20-36页 |
| ·MAS 体系结构 | 第20-21页 |
| ·集中式结构 | 第20-21页 |
| ·分布式结构 | 第21页 |
| ·混合式结构 | 第21页 |
| ·分层结构模型 | 第21-24页 |
| ·通迅层 | 第23页 |
| ·基本动作层 | 第23页 |
| ·可选动作评价层 | 第23-24页 |
| ·决策层 | 第24页 |
| ·世界模型 | 第24页 |
| ·阵形规划研究 | 第24-31页 |
| ·角色的概念 | 第24-26页 |
| ·静态阵形 | 第26-28页 |
| ·动态阵形 | 第28-31页 |
| ·基于合作意愿矩阵的规划协作策略 | 第31-35页 |
| ·基于合作意愿矩阵的规划协作策略 | 第31-34页 |
| ·规划协作策略的应用 | 第34-35页 |
| ·小结 | 第35-36页 |
| 第四章 强化学习理论及应用 | 第36-51页 |
| ·强化学习模型 | 第36-37页 |
| ·模糊Q 学习 | 第37-44页 |
| ·Q 学习算法 | 第37-39页 |
| ·模糊Q学习算法 | 第39页 |
| ·模糊Q学习在RoboCup中的应用 | 第39-44页 |
| ·基于CA-FCMAC 的Q 学习算法 | 第44-50页 |
| ·传统的CMAC | 第44-45页 |
| ·CA-FCMAC | 第45-47页 |
| ·CA-FCMAC Q 学习 | 第47-49页 |
| ·CA-FCMAC Q 学习的应用 | 第49-50页 |
| ·小结 | 第50-51页 |
| 第五章 基于先验知识的内在激励强化学习 | 第51-60页 |
| ·基于先验知识的强化学习 | 第51-52页 |
| ·内在激励强化学习 | 第52-54页 |
| ·内在激励强化学习简述 | 第52-53页 |
| ·内在激励强化学习算法 | 第53-54页 |
| ·基于先验知识的内部激励强化学习算法 | 第54-55页 |
| ·算法在RoboCup 协作中的应用 | 第55-59页 |
| ·二对一问题 | 第55-57页 |
| ·三对二问题 | 第57-59页 |
| ·小结 | 第59-60页 |
| 第六章 结论与展望 | 第60-62页 |
| ·本文总结 | 第60页 |
| ·展望 | 第60-62页 |
| 致谢 | 第62-63页 |
| 参考文献 | 第63-66页 |
| 附录:作者在攻读硕士学位期间发表的论文 | 第66页 |