致谢 | 第7-8页 |
摘要 | 第8-9页 |
ABSTRACT | 第9-10页 |
第一章 绪论 | 第15-21页 |
1.1 研究背景及意义 | 第15-16页 |
1.2 国内外研究现状 | 第16-19页 |
1.2.1 多智能体系统研究 | 第16-17页 |
1.2.2 足球机器人比赛发展 | 第17-18页 |
1.2.3 多智能体系统强化学习研究 | 第18-19页 |
1.3 本文主要研究内容 | 第19-21页 |
第二章 多智能体系统和足球机器人系统基础 | 第21-32页 |
2.1 智能体概述 | 第21-24页 |
2.1.1 智能体概念与模型 | 第21页 |
2.1.2 智能体体系结构 | 第21-24页 |
2.2 多智能体系统 | 第24-27页 |
2.2.0 多智能体系统的概念 | 第24页 |
2.2.1 多智能体系统的研究内容 | 第24-26页 |
2.2.2 多智能体群体体系结构 | 第26-27页 |
2.3 足球机器人系统 | 第27-31页 |
2.3.1 足球机器人概述 | 第27-28页 |
2.3.2 足球机器人系统结构 | 第28-31页 |
2.4 本章小结 | 第31-32页 |
第三章 智能体强化学习 | 第32-43页 |
3.1 强化学习概述 | 第32-33页 |
3.2 强化学习框架 | 第33-37页 |
3.2.1 马尔可夫决策过程 | 第33-34页 |
3.2.2 回报函数与策略 | 第34-35页 |
3.2.3 值函数 | 第35-36页 |
3.2.4 探索策略 | 第36-37页 |
3.3 强化学习算法 | 第37-40页 |
3.3.1 时间差分算法(TD) | 第37-38页 |
3.3.2 Q学习算法 | 第38-39页 |
3.3.3 Sarsa学习算法 | 第39-40页 |
3.4 多智能体系统强化学习 | 第40-42页 |
3.4.1 多智能体系统描述 | 第41页 |
3.4.2 多智能体系统强化学习方法 | 第41-42页 |
3.5 本章小结 | 第42-43页 |
第四章 基于智能体Q学习的足球机器人寻球策略 | 第43-52页 |
4.1 智能体动作探索策略 | 第43-44页 |
4.2 基于模拟退火的智能体Q学习 | 第44-47页 |
4.3 足球机器人寻球任务 | 第47-49页 |
4.3.1 问题描述 | 第47页 |
4.3.2 状态空间和动作空间表示 | 第47-49页 |
4.3.3 奖惩函数设置 | 第49页 |
4.3.4 Q值函数更新 | 第49页 |
4.4 仿真结果与分析 | 第49-51页 |
4.5 本章小结 | 第51-52页 |
第五章 基于多智能体Q学习的足球机器人决策策略 | 第52-68页 |
5.1 多智能体强化学习存在的问题 | 第52-53页 |
5.2 基于角色转换和经验共享的多智能体Q学习 | 第53-56页 |
5.2.1 多智能体强化学习的角色转换 | 第53-54页 |
5.2.2 多智能体强化学习的经验共享 | 第54页 |
5.2.3 基于角色转换和经验共享的多智能体Q学习 | 第54-56页 |
5.3 足球机器人决策模型 | 第56-58页 |
5.4 足球机器人局部进攻策略 | 第58-62页 |
5.4.1 角色分配策略 | 第58-59页 |
5.4.2 基于多智能体Q学习的主攻队员动作选择学习 | 第59-62页 |
5.5 仿真结果与分析 | 第62-66页 |
5.6 本章小结 | 第66-68页 |
第六章 总结与展望 | 第68-70页 |
6.1 工作总结 | 第68-69页 |
6.2 工作展望 | 第69-70页 |
参考文献 | 第70-73页 |
攻读硕士学位期间的学术活动及成果情况 | 第73-74页 |