首页--工业技术论文--自动化技术、计算机技术论文--自动化基础理论论文--人工智能理论论文--自动推理、机器学习论文

基于模糊Q学习的Agent智能决策研究与实现

摘要第1-6页
ABSTRACT第6-7页
致谢第7-8页
目录第8-11页
图表清单第11-12页
第一章 绪论第12-23页
   ·智能Agent概述第12-15页
     ·Agent定义第12-13页
     ·多Agent系统第13-14页
     ·多 Agent系统的强化学习第14-15页
   ·模糊逻辑概述第15-19页
     ·模糊集合第15-16页
     ·模糊逻辑第16-17页
     ·模糊推理第17-18页
     ·模糊推理系统第18-19页
   ·RoboCup研究概述第19-22页
     ·RoboCup简介第19页
     ·RoboCup的研究意义第19-20页
     ·RoboCup仿真组比赛第20-21页
     ·RoboCup仿真组研究现状第21-22页
   ·论文组织第22-23页
第二章 强化学习第23-31页
   ·强化学习概述第23-26页
     ·强化学习原理和结构第23-24页
     ·强化学习分类第24-25页
     ·强化学习中的关键问题第25-26页
   ·常见的强化学习算法第26-28页
     ·TD算法第26-27页
     ·Q学习第27页
     ·Sarsa学习算法第27-28页
     ·Dyna-Q算法第28页
   ·多Agent强化学习第28-30页
     ·合作型多 Agent强化学习第29页
     ·竞争型多 Agent强化学习第29页
     ·半竞争型多 Agent强化学习第29-30页
   ·本章小结第30-31页
第三章 模糊 Q学习算法的研究第31-39页
   ·Q学习算法第31-32页
   ·连续状态的Q学习第32-34页
     ·基于神经网络的 Q学习第32-33页
     ·基于 CMAC的Q学习第33-34页
   ·Fuzzy Q学习第34-35页
     ·模糊推理系统第34页
     ·模糊推理系统的 Q学习第34-35页
   ·RoboCup中的踢球问题第35-38页
     ·问题描述第35-36页
     ·Fuzzy Q学习解决踢球问题第36-38页
     ·实验结果及分析第38页
   ·本章小结第38-39页
第四章 多回报模糊 Q学习算法的研究第39-46页
   ·多回报模糊 Q学习算法第39-40页
     ·状态空间的表示第39页
     ·回报值的确定第39-40页
     ·算法描述第40页
   ·RoboCup中的截球问题第40-43页
     ·问题描述第40-41页
     ·截球实验第41-42页
     ·结果分析第42-43页
   ·RoboCup中的2 VS 1问题第43-45页
     ·问题描述第43页
     ·2 VS 1问题建模第43-44页
     ·实验结果分析第44-45页
   ·本章小结第45-46页
第五章 基于先验知识的模块化 Fuzzy Q学习算法研究第46-55页
   ·基于 Agent团队的强化学习第46-47页
   ·RoboCup中的3 VS 2问题第47-48页
   ·模块化 Fuzzy Q学习算法第48-52页
     ·模块化 Q学习算法第48-49页
     ·状态空间的表示第49-50页
     ·改进的模块化 Q学习算法第50-52页
   ·基于先验知识的学习算法第52-53页
   ·仿真实验及分析第53页
   ·本章小结第53-55页
第六章 结束语第55-57页
   ·本文主要工作与创新点第55页
   ·进一步工作的展望第55-57页
参考文献第57-61页
研究生期间主要科研工作及成果第61页

论文共61页,点击 下载论文
上一篇:磁场重联中的Hall电流效应及地球磁尾通量绳结构的模拟研究
下一篇:C60的氟化反应研究