摘要 | 第1-4页 |
ABSTRACT | 第4-6页 |
目录 | 第6-9页 |
第一章 绪论 | 第9-14页 |
·研究背景 | 第9页 |
·研究现状 | 第9-12页 |
·研究内容 | 第12-13页 |
·论文结构及主要内容 | 第13-14页 |
第二章 多AGENT学习理论综述 | 第14-23页 |
·AGENT的概念及特征 | 第14-17页 |
·Agent的定义 | 第14-15页 |
·Agent的特征 | 第15-16页 |
·多Agent系统 | 第16-17页 |
·MAS学习框架理论模型 | 第17-21页 |
·马尔科夫决策过程(Markov Decision Processes,MDP) | 第17-18页 |
·矩阵博弈(Matrix Games) | 第18-19页 |
·随机博弈(Stochastic Games) | 第19-20页 |
·MAS学习框架小结 | 第20-21页 |
·学习算法相关定义 | 第21-23页 |
第三章 一种在多AGENT系统中求帕累托高效率解的方法 | 第23-32页 |
·Q-学习 | 第23-25页 |
·Q-学习原理 | 第23页 |
·Q-学习算法的描述 | 第23-25页 |
·WoLF思想及其相关算法 | 第25-26页 |
·WoLF原理 | 第25页 |
·Winning的判定 | 第25-26页 |
·ROBERT AXELROD实验 | 第26-27页 |
·PESCO算法 | 第27-32页 |
·PESCO算法的核心策略 | 第27-29页 |
·符号的定义 | 第28页 |
·博弈策略的判定 | 第28页 |
·策略的选定 | 第28-29页 |
·Q值的计算 | 第29页 |
·PESCO算法的描述 | 第29-32页 |
第四章 博弈实验与分析 | 第32-50页 |
·实验一:供零博弈 | 第32-41页 |
·供零博弈 | 第32-33页 |
·自博弈 | 第33-34页 |
·不同的对手 | 第34-39页 |
·Q合作对手、对抗对手与TfT | 第34-36页 |
·Random | 第36-37页 |
·Q-学习 | 第37-38页 |
·WoLF-PHC | 第38-39页 |
·WoLF-GIGA | 第39页 |
·各个Agent的博弈结果 | 第39-41页 |
·结论 | 第41页 |
·STACKELBERG博弈 | 第41-45页 |
·Stackelberg | 第41-42页 |
·自博弈 | 第42-43页 |
·各个Agent博弈结果 | 第43-45页 |
·猜硬币博弈 | 第45-49页 |
·猜硬币博弈 | 第45-46页 |
·自博弈 | 第46页 |
·对抗WoLF-GIGA算法 | 第46-47页 |
·各个Agent博弈结果 | 第47-49页 |
·小结 | 第49-50页 |
第五章 总结与展望 | 第50-52页 |
·总结 | 第50页 |
·未来工作展望 | 第50-52页 |
参考文献 | 第52-56页 |
致谢 | 第56-57页 |
附录(攻读学位期间发表的论文) | 第57页 |