摘要 | 第1-5页 |
ABSTRACT | 第5-7页 |
目录 | 第7-9页 |
CONTENTS | 第9-11页 |
第一章 绪论 | 第11-20页 |
·引言 | 第11页 |
·学习方式 | 第11-12页 |
·强化学习发展进程 | 第12-15页 |
·Agent强化学习技术 | 第13-14页 |
·多Agent强化学习算法 | 第14-15页 |
·机器人足球RoboCup | 第15-18页 |
·RoboCup的实验平台 | 第16-17页 |
·RoboCup的特点与意义 | 第17-18页 |
·本章小结及本文主要内容 | 第18-20页 |
第二章 强化学习基础理论 | 第20-28页 |
·马尔科夫决策与强化学习 | 第20-24页 |
·马尔科夫决策过程 | 第20-22页 |
·强化学习的四个要素 | 第22-23页 |
·强化学习算法的目的 | 第23-24页 |
·强化学习的主要算法 | 第24-27页 |
·时序差分算法 | 第25-26页 |
·Q-learning算法 | 第26-27页 |
·Sarsa算法 | 第27页 |
·本章小结 | 第27-28页 |
第三章 平均奖赏强化学习算法 | 第28-41页 |
·MDP与SMDP | 第28-29页 |
·平均奖赏强化学习算法 | 第29-30页 |
·马尔科夫系统与性能势理论 | 第30-31页 |
·性能势以及基于性能势的无折扣强化学习算法 | 第31-32页 |
·平均奖赏强化学习主要算法 | 第32-36页 |
·R-learning | 第32-33页 |
·H-learning | 第33-34页 |
·LC-learning | 第34-36页 |
·基于G学习的Agent踢球技术的实现 | 第36-40页 |
·问题描述 | 第36-38页 |
·状态划分 | 第38-39页 |
·仿真实验 | 第39-40页 |
·本章小结 | 第40-41页 |
第四章 分布式多智能体基于G-learning的改进 | 第41-51页 |
·角色与阵型 | 第41-43页 |
·角色 | 第41-42页 |
·阵型 | 第42-43页 |
·RoboCup决策框架结构 | 第43-45页 |
·RoboCup中的协作 | 第45-46页 |
·性能势以及基于性能势的无折扣强化学习算法 | 第46-50页 |
·基于改进的G-learning在RoboCup中的应用 | 第46页 |
·仿真实验 | 第46-50页 |
·本章小结 | 第50-51页 |
总结与展望 | 第51-53页 |
参考文献 | 第53-57页 |
攻读硕士学位期间发表论文 | 第57-59页 |
致谢 | 第59页 |