多Agent系统中合作与协调机制的研究
前言 | 第1-10页 |
摘要 | 第10-12页 |
ABSTRACT | 第12-15页 |
第一章 绪论 | 第15-29页 |
·研究背景 | 第15-19页 |
·基于MAS计算的关键问题 | 第19-22页 |
·本文工作及创新 | 第22-25页 |
·本文组织与结构 | 第25-26页 |
参考文献 | 第26-29页 |
第二章 多AGENT合作与协调研究概况及现状 | 第29-50页 |
·引言 | 第29-30页 |
·AGENT与多AGENT系统基本理论 | 第30-36页 |
·Agent概念和结构 | 第30-34页 |
·多Agent系统概念和外延 | 第34-36页 |
·多AGENT合作与协调的分析方法 | 第36-38页 |
·多AGENT合作问题的研究现状 | 第38-42页 |
·组织建立 | 第39-40页 |
·联盟形成 | 第40-41页 |
·任务分配 | 第41-42页 |
·多AGENT协调问题的研究现状 | 第42-47页 |
·群体思维状态模型 | 第43-45页 |
·多Agent规划 | 第45-46页 |
·Agent社会规范 | 第46-47页 |
·小结 | 第47页 |
参考文献 | 第47-50页 |
第三章 适应分布异构环境的任务分配机制 | 第50-74页 |
·引言 | 第50-52页 |
·相关工作 | 第52-54页 |
·静态任务分配模型 | 第54-63页 |
·问题定义 | 第54-56页 |
·最优分配算法 | 第56-57页 |
·启发式分配算法 | 第57-58页 |
·时间复杂度分析 | 第58页 |
·案例学习及性能分析 | 第58-63页 |
·多任务流动态分配模型 | 第63-70页 |
·问题定义 | 第63-64页 |
·单任务流Q学习模型 | 第64-65页 |
·值函数共享机制 | 第65-66页 |
·基于Q学习的分布式多任务流分配算法 | 第66-67页 |
·实验及性能分析 | 第67-70页 |
·小结 | 第70-71页 |
参考文献 | 第71-74页 |
第四章 基于强化学习的行为协调机制 | 第74-100页 |
·引言 | 第74-76页 |
·MARKOV对策及强化学习 | 第76-78页 |
·多AGENT学习相关工作 | 第78-81页 |
·冲突博弈强化学习模型 | 第81-90页 |
·冲突博弈 | 第81-82页 |
·最优策略 | 第82-83页 |
·基于后悔值的Q学习模型 | 第83-85页 |
·算法实现 | 第85-86页 |
·实验与结果分析 | 第86-90页 |
·一般和博弈动态策略强化学习模型 | 第90-97页 |
·时变性策略 | 第91-92页 |
·适应性策略 | 第92页 |
·纯策略Q学习 | 第92-94页 |
·混合策略Q学习 | 第94页 |
·性能验证与分析 | 第94-97页 |
·小结 | 第97-98页 |
参考支献 | 第98-100页 |
第五章 个性化行为选择机制 | 第100-121页 |
·引言 | 第100-102页 |
·离散个性空间的行为选择 | 第102-109页 |
·定性决策理论 | 第102-104页 |
·基于定性决策论的个性化决策模型 | 第104-106页 |
·有效性验证 | 第106-109页 |
·连续个性空间的行为选择 | 第109-114页 |
·基于神经网络的个性化决策模型 | 第109-111页 |
·个性神经网络学习算法 | 第111-112页 |
·有效性验证 | 第112-114页 |
·基于SWARM的多AGENT系统仿真 | 第114-119页 |
·Swarm简介 | 第114-116页 |
·仿真平台及实例解析 | 第116-119页 |
·小结 | 第119页 |
参考文献 | 第119-121页 |
第六章 总结及展望 | 第121-124页 |
·本文研究总结 | 第121-123页 |
·下一步工作 | 第123-124页 |
致谢 | 第124-125页 |
附录A 攻读博士学位期间发表(录用)论文情况 | 第125-126页 |
附录B 攻读博士学位期间参加科研学术活动情况 | 第126-127页 |