首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文

多Agent系统中合作与协调机制的研究

前言第1-10页
摘要第10-12页
ABSTRACT第12-15页
第一章 绪论第15-29页
     ·研究背景第15-19页
     ·基于MAS计算的关键问题第19-22页
     ·本文工作及创新第22-25页
     ·本文组织与结构第25-26页
 参考文献第26-29页
第二章 多AGENT合作与协调研究概况及现状第29-50页
     ·引言第29-30页
     ·AGENT与多AGENT系统基本理论第30-36页
       ·Agent概念和结构第30-34页
       ·多Agent系统概念和外延第34-36页
     ·多AGENT合作与协调的分析方法第36-38页
     ·多AGENT合作问题的研究现状第38-42页
       ·组织建立第39-40页
       ·联盟形成第40-41页
       ·任务分配第41-42页
     ·多AGENT协调问题的研究现状第42-47页
       ·群体思维状态模型第43-45页
       ·多Agent规划第45-46页
       ·Agent社会规范第46-47页
     ·小结第47页
 参考文献第47-50页
第三章 适应分布异构环境的任务分配机制第50-74页
     ·引言第50-52页
     ·相关工作第52-54页
     ·静态任务分配模型第54-63页
       ·问题定义第54-56页
       ·最优分配算法第56-57页
       ·启发式分配算法第57-58页
       ·时间复杂度分析第58页
       ·案例学习及性能分析第58-63页
     ·多任务流动态分配模型第63-70页
       ·问题定义第63-64页
       ·单任务流Q学习模型第64-65页
       ·值函数共享机制第65-66页
       ·基于Q学习的分布式多任务流分配算法第66-67页
       ·实验及性能分析第67-70页
     ·小结第70-71页
 参考文献第71-74页
第四章 基于强化学习的行为协调机制第74-100页
     ·引言第74-76页
     ·MARKOV对策及强化学习第76-78页
     ·多AGENT学习相关工作第78-81页
     ·冲突博弈强化学习模型第81-90页
       ·冲突博弈第81-82页
       ·最优策略第82-83页
       ·基于后悔值的Q学习模型第83-85页
       ·算法实现第85-86页
       ·实验与结果分析第86-90页
     ·一般和博弈动态策略强化学习模型第90-97页
       ·时变性策略第91-92页
       ·适应性策略第92页
       ·纯策略Q学习第92-94页
       ·混合策略Q学习第94页
       ·性能验证与分析第94-97页
     ·小结第97-98页
 参考支献第98-100页
第五章 个性化行为选择机制第100-121页
     ·引言第100-102页
     ·离散个性空间的行为选择第102-109页
       ·定性决策理论第102-104页
       ·基于定性决策论的个性化决策模型第104-106页
       ·有效性验证第106-109页
     ·连续个性空间的行为选择第109-114页
       ·基于神经网络的个性化决策模型第109-111页
       ·个性神经网络学习算法第111-112页
       ·有效性验证第112-114页
     ·基于SWARM的多AGENT系统仿真第114-119页
       ·Swarm简介第114-116页
       ·仿真平台及实例解析第116-119页
     ·小结第119页
 参考文献第119-121页
第六章 总结及展望第121-124页
     ·本文研究总结第121-123页
     ·下一步工作第123-124页
致谢第124-125页
附录A 攻读博士学位期间发表(录用)论文情况第125-126页
附录B 攻读博士学位期间参加科研学术活动情况第126-127页

论文共127页,点击 下载论文
上一篇:从威权控制到体制吸纳:国家与上海邻里空间,1949-2008
下一篇:基于语义网络的知识协作关键技术研究