基于多智能体间协作模型及其学习方法研究
摘要 | 第1-5页 |
Abstract | 第5-8页 |
1 绪论 | 第8-15页 |
·研究的必要性和背景 | 第8-9页 |
·强化学习概述 | 第9-11页 |
·追捕问题描述 | 第11-14页 |
·追捕问题的发展背景 | 第11-12页 |
·追捕问题概述 | 第12-13页 |
·分析追捕问题存在的问题 | 第13-14页 |
·论文研究内容及结构安排 | 第14-15页 |
·研究内容 | 第14页 |
·结构安排 | 第14-15页 |
2 多AGENT系统 | 第15-19页 |
·AGENT介绍 | 第15-16页 |
·Agent的定义 | 第15页 |
·Agent的基本特性 | 第15-16页 |
·多Agent系统概述 | 第16-17页 |
·多Agent系统的定义及特性 | 第16页 |
·多Agent学习的研究内容 | 第16-17页 |
·多Agent协作机制 | 第17页 |
·本章小结 | 第17-19页 |
3 多AGENT强化学习理论 | 第19-32页 |
·强化学习 | 第19-28页 |
·强化学习的基本原理和定义 | 第19-21页 |
·马尔可夫决策过程 | 第21-22页 |
·强化学习的基本要素 | 第22-24页 |
·经典的强化学习算法 | 第24-28页 |
·有待进一步研究的问题 | 第28页 |
·多AGENT强化学习 | 第28-31页 |
·MARL方法及其发展 | 第28-29页 |
·合作MARL | 第29页 |
·基于对策或平衡解的MARL | 第29-30页 |
·最佳响应MARL | 第30-31页 |
·MARL有待进一步解决的问题 | 第31页 |
·本章小结 | 第31-32页 |
4 改进的多AGENT协作学习方法 | 第32-40页 |
·多AGENT的信息共享机制 | 第32-33页 |
·信息共享机制 | 第32-33页 |
·实例分析 | 第33页 |
·黑板模型 | 第33-34页 |
·对手状态预测 | 第34-36页 |
·PA-BDI-AGENT预测技术 | 第34-35页 |
·对手状态预测函数 | 第35-36页 |
·改进的多AGENT协作学习算法 | 第36-39页 |
·算法框架 | 第36页 |
·算法描述 | 第36-37页 |
·算法说明 | 第37-39页 |
·本章小结 | 第39-40页 |
5 捕追问题研究 | 第40-46页 |
·任务描述 | 第40页 |
·追捕流程图 | 第40-41页 |
·算法设计 | 第41-44页 |
·分解目标及确定子目标 | 第41-42页 |
·状态聚类 | 第42-43页 |
·设定奖赏值 | 第43页 |
·更新Q值 | 第43-44页 |
·实验结果及其分析 | 第44-45页 |
·本章小结 | 第45-46页 |
结论 | 第46-47页 |
致谢 | 第47-48页 |
参考文献 | 第48-50页 |
攻读学位期间的研究成果 | 第50页 |