摘要 | 第1-6页 |
ABSTRACT | 第6-11页 |
第一章 绪论 | 第11-18页 |
·研究的背景及意义 | 第11-12页 |
·强化学习概述 | 第12-14页 |
·强化学习的发展历史 | 第12-13页 |
·强化学习的研究现状 | 第13-14页 |
·追捕问题概述 | 第14-16页 |
·追捕问题的发展背景 | 第14-15页 |
·追捕问题的相关研究 | 第15页 |
·追捕问题存在的问题 | 第15-16页 |
·论文研究内容及结构安排 | 第16-18页 |
·研究内容 | 第16页 |
·论文安排 | 第16-18页 |
第二章 多AGENT 系统 | 第18-24页 |
·AGENT 介绍 | 第18-19页 |
·Agent 的定义 | 第18-19页 |
·Agent 的基本特性 | 第19页 |
·多AGENT 系统概述 | 第19-23页 |
·多Agent 系统的定义及特性 | 第19-20页 |
·多Agent 学习的研究内容 | 第20-22页 |
·多Agent 协作机制 | 第22-23页 |
·本章小结 | 第23-24页 |
第三章 多AGENT 强化学习理论 | 第24-40页 |
·强化学习 | 第24-35页 |
·强化学习的基本原理和定义 | 第24-25页 |
·马尔可夫决策过程 | 第25-26页 |
·强化学习的基本要素 | 第26-28页 |
·经典的强化学习算法 | 第28-34页 |
·有待进一步研究的问题 | 第34-35页 |
·多AGENT 强化学习 | 第35-39页 |
·MARL 方法及其发展 | 第35-36页 |
·合作MARL | 第36-37页 |
·基于对策或平衡解的MARL | 第37-39页 |
·最佳响应MARL | 第39页 |
·MARL 有待进一步解决的问题 | 第39页 |
·本章小结 | 第39-40页 |
第四章 改进的多AGENT 协作学习方法 | 第40-49页 |
·多AGENT 的信息共享机制 | 第40-42页 |
·信息共享机制 | 第40-41页 |
·实例分析 | 第41-42页 |
·黑板模型 | 第42-43页 |
·对手状态预测 | 第43-44页 |
·预测技术的提出 | 第43-44页 |
·对手状态预测函数 | 第44页 |
·改进的多AGENT 协作学习算法 | 第44-48页 |
·算法框架 | 第44-45页 |
·算法描述 | 第45-46页 |
·算法说明 | 第46-48页 |
·本章小结 | 第48-49页 |
第五章 追捕问题研究 | 第49-57页 |
·任务描述 | 第49-50页 |
·追捕流程图 | 第50-51页 |
·算法设计 | 第51-54页 |
·分解目标及确定子目标 | 第51-52页 |
·状态聚类 | 第52页 |
·动作选择策略 | 第52-53页 |
·设定奖赏值 | 第53-54页 |
·更新Q 值 | 第54页 |
·实验结果及其分析 | 第54-56页 |
·本章小结 | 第56-57页 |
第六章 结论与展望 | 第57-59页 |
·结论 | 第57页 |
·进一步的工作 | 第57-59页 |
参考文献 | 第59-63页 |
致谢 | 第63-64页 |
附录(攻读硕士学位期间发表的论文及参与的科研项目) | 第64页 |