摘要 | 第2-3页 |
Abstract | 第3-4页 |
1 绪论 | 第7-12页 |
1.1 研究背景和意义 | 第7-9页 |
1.2 国内外研究现状 | 第9-10页 |
1.3 本文的主要研究工作 | 第10页 |
1.4 本文的基本结构 | 第10-12页 |
2 协同图模型及多智能体强化学习 | 第12-26页 |
2.1 概率图模型 | 第12页 |
2.2 协同图和变量消除算法 | 第12-20页 |
2.2.1 VE算法 | 第13-15页 |
2.2.2 Max-Plus算法 | 第15-19页 |
2.2.3 Max-Sum算法 | 第19-20页 |
2.3 多智能体强化学习 | 第20-25页 |
2.3.1 强化学习 | 第20-22页 |
2.3.2 多智能体MDP框架 | 第22-24页 |
2.3.3 独立学习方法 | 第24页 |
2.3.4 MDP学习方法 | 第24页 |
2.3.5 协同强化学习方法 | 第24-25页 |
2.4 本章小结 | 第25-26页 |
3 基于分布式值函数的多智能体分布式协同学习方法 | 第26-36页 |
3.1 分布式强化学习 | 第26-29页 |
3.1.1 全局奖赏DRL方法 | 第26-27页 |
3.1.2 局部奖赏DRL方法 | 第27页 |
3.1.3 分布式奖赏DRL方法 | 第27-28页 |
3.1.4 自适应分布式值函数(Adaptive DVF)方法 | 第28-29页 |
3.2 问题描述及实验设置 | 第29-31页 |
3.3 实验结果及分析 | 第31-35页 |
3.4 本章小结 | 第35-36页 |
4 基于回报传播的多智能体分布式协同学习方法 | 第36-52页 |
4.1 稀疏协同Q学习(Sparse Coordinated Q-Learning) | 第36-40页 |
4.1.1 基于智能体的分解(Agent-Based Decomposition) | 第36-38页 |
4.1.2 基于边的分解(Edge-Based Decomposition) | 第38-40页 |
4.2 单状态智能体学习实验 | 第40-47页 |
4.2.1 问题描述及实验设置 | 第40-41页 |
4.2.2 实验结果及分析 | 第41-47页 |
4.3 分布式传感器网络实验 | 第47-50页 |
4.3.1 问题描述及实验设置 | 第47-48页 |
4.3.2 实验结果及分析 | 第48-50页 |
4.4 本章小结 | 第50-52页 |
结论 | 第52-54页 |
参考文献 | 第54-57页 |
致谢 | 第57-59页 |