多Agent系统中合作与协调机制的研究
| 前言 | 第1-10页 |
| 摘要 | 第10-12页 |
| ABSTRACT | 第12-15页 |
| 第一章 绪论 | 第15-29页 |
| ·研究背景 | 第15-19页 |
| ·基于MAS计算的关键问题 | 第19-22页 |
| ·本文工作及创新 | 第22-25页 |
| ·本文组织与结构 | 第25-26页 |
| 参考文献 | 第26-29页 |
| 第二章 多AGENT合作与协调研究概况及现状 | 第29-50页 |
| ·引言 | 第29-30页 |
| ·AGENT与多AGENT系统基本理论 | 第30-36页 |
| ·Agent概念和结构 | 第30-34页 |
| ·多Agent系统概念和外延 | 第34-36页 |
| ·多AGENT合作与协调的分析方法 | 第36-38页 |
| ·多AGENT合作问题的研究现状 | 第38-42页 |
| ·组织建立 | 第39-40页 |
| ·联盟形成 | 第40-41页 |
| ·任务分配 | 第41-42页 |
| ·多AGENT协调问题的研究现状 | 第42-47页 |
| ·群体思维状态模型 | 第43-45页 |
| ·多Agent规划 | 第45-46页 |
| ·Agent社会规范 | 第46-47页 |
| ·小结 | 第47页 |
| 参考文献 | 第47-50页 |
| 第三章 适应分布异构环境的任务分配机制 | 第50-74页 |
| ·引言 | 第50-52页 |
| ·相关工作 | 第52-54页 |
| ·静态任务分配模型 | 第54-63页 |
| ·问题定义 | 第54-56页 |
| ·最优分配算法 | 第56-57页 |
| ·启发式分配算法 | 第57-58页 |
| ·时间复杂度分析 | 第58页 |
| ·案例学习及性能分析 | 第58-63页 |
| ·多任务流动态分配模型 | 第63-70页 |
| ·问题定义 | 第63-64页 |
| ·单任务流Q学习模型 | 第64-65页 |
| ·值函数共享机制 | 第65-66页 |
| ·基于Q学习的分布式多任务流分配算法 | 第66-67页 |
| ·实验及性能分析 | 第67-70页 |
| ·小结 | 第70-71页 |
| 参考文献 | 第71-74页 |
| 第四章 基于强化学习的行为协调机制 | 第74-100页 |
| ·引言 | 第74-76页 |
| ·MARKOV对策及强化学习 | 第76-78页 |
| ·多AGENT学习相关工作 | 第78-81页 |
| ·冲突博弈强化学习模型 | 第81-90页 |
| ·冲突博弈 | 第81-82页 |
| ·最优策略 | 第82-83页 |
| ·基于后悔值的Q学习模型 | 第83-85页 |
| ·算法实现 | 第85-86页 |
| ·实验与结果分析 | 第86-90页 |
| ·一般和博弈动态策略强化学习模型 | 第90-97页 |
| ·时变性策略 | 第91-92页 |
| ·适应性策略 | 第92页 |
| ·纯策略Q学习 | 第92-94页 |
| ·混合策略Q学习 | 第94页 |
| ·性能验证与分析 | 第94-97页 |
| ·小结 | 第97-98页 |
| 参考支献 | 第98-100页 |
| 第五章 个性化行为选择机制 | 第100-121页 |
| ·引言 | 第100-102页 |
| ·离散个性空间的行为选择 | 第102-109页 |
| ·定性决策理论 | 第102-104页 |
| ·基于定性决策论的个性化决策模型 | 第104-106页 |
| ·有效性验证 | 第106-109页 |
| ·连续个性空间的行为选择 | 第109-114页 |
| ·基于神经网络的个性化决策模型 | 第109-111页 |
| ·个性神经网络学习算法 | 第111-112页 |
| ·有效性验证 | 第112-114页 |
| ·基于SWARM的多AGENT系统仿真 | 第114-119页 |
| ·Swarm简介 | 第114-116页 |
| ·仿真平台及实例解析 | 第116-119页 |
| ·小结 | 第119页 |
| 参考文献 | 第119-121页 |
| 第六章 总结及展望 | 第121-124页 |
| ·本文研究总结 | 第121-123页 |
| ·下一步工作 | 第123-124页 |
| 致谢 | 第124-125页 |
| 附录A 攻读博士学位期间发表(录用)论文情况 | 第125-126页 |
| 附录B 攻读博士学位期间参加科研学术活动情况 | 第126-127页 |