RoboCup2D仿真足球队智能体协作研究
| 摘要 | 第1-5页 |
| Abstract | 第5-8页 |
| 第一章 绪论 | 第8-15页 |
| ·多智能体协作技术概述 | 第8-10页 |
| ·智能体和多智能体系统 | 第8-9页 |
| ·多智能体协作技术的研究背景和研究意义 | 第9-10页 |
| ·足球机器人仿真比赛 | 第10-13页 |
| ·RoboCup2D 仿真平台 | 第10-11页 |
| ·RoboCup2D 仿真系统存在的实际问题 | 第11-12页 |
| ·国内外研究成果 | 第12-13页 |
| ·本文的论述结构 | 第13-15页 |
| 第二章 多智能体系统的感知模型和运动实现 | 第15-24页 |
| ·智能体的感知模型 | 第15-17页 |
| ·听觉信息 | 第15-16页 |
| ·视觉信息 | 第16-17页 |
| ·自身状态信息 | 第17页 |
| ·智能体的动作模型 | 第17-18页 |
| ·多智能体协作运动实现 | 第18-23页 |
| ·问题的提出 | 第18-19页 |
| ·不同位置球员的差别 | 第19-22页 |
| ·Apollo2D 分层协作结构 | 第22-23页 |
| ·本章小结 | 第23-24页 |
| 第三章 基于树搜索算法的在线选择动作序列机制 | 第24-36页 |
| ·多智能体在线选择动作序列 | 第24-28页 |
| ·提出框架 | 第24-25页 |
| ·求值模块 | 第25-28页 |
| ·树搜索算法 | 第28-33页 |
| ·树搜索算法描述 | 第28-30页 |
| ·智能体实现 | 第30-33页 |
| ·实验结果与分析 | 第33-35页 |
| ·参数设定 | 第33-34页 |
| ·实验结果和分析 | 第34-35页 |
| ·本章小结 | 第35-36页 |
| 第四章 多智能体协作研究 | 第36-50页 |
| ·强化学习方法 | 第36-37页 |
| ·经验累积算法 | 第37-41页 |
| ·学习过程 | 第37-38页 |
| ·问题建模 | 第38-39页 |
| ·经验累积算法 | 第39-40页 |
| ·实验研究和结果分析 | 第40-41页 |
| ·基于 POMDP 的守门员决策研究 | 第41-49页 |
| ·MDP 基本模型 | 第41-42页 |
| ·POMDP 基本模型 | 第42-43页 |
| ·守门员决策存在的问题 | 第43-45页 |
| ·利用 POMDP 对守门员决策建模 | 第45-48页 |
| ·利用值迭代的方式求解 | 第48-49页 |
| ·本章小结 | 第49-50页 |
| 第五章 实验结果与分析 | 第50-56页 |
| ·在线选择动作序列机制下的实验结果和分析 | 第50-53页 |
| ·实验结果 | 第50-52页 |
| ·实验结果分析 | 第52-53页 |
| ·守门员 POMDP 模型的实验结果和分析 | 第53-56页 |
| ·守门员 POMDP 模型的实验结果 | 第53页 |
| ·实验结果分析 | 第53-56页 |
| 第六章 总结与展望 | 第56-58页 |
| ·总结 | 第56-57页 |
| ·展望 | 第57-58页 |
| 参考文献 | 第58-60页 |
| 致谢 | 第60页 |