摘要 | 第1-5页 |
ABSTRACT | 第5-10页 |
第一章 绪论 | 第10-22页 |
·研究背景 | 第10-11页 |
·多智能体机器人协作的研究综述 | 第11-14页 |
·强化学习的发展与应用概况 | 第14-18页 |
·强化学习的发展历史 | 第14-16页 |
·强化学习的应用现状 | 第16-18页 |
·强化学习在多智能体领域的应用情况 | 第18-20页 |
·强化学习在多智能体机器人中的研究现状 | 第18-19页 |
·有待解决的问题 | 第19页 |
·解决问题的途径 | 第19-20页 |
·本文研究内容及论文安排 | 第20-22页 |
·研究内容 | 第20页 |
·论文安排 | 第20-22页 |
第二章 多智能体系统基本理论 | 第22-34页 |
·智能体(Agent)的定义 | 第22-23页 |
·Agent的弱定义 | 第22-23页 |
·Agent的强定义 | 第23页 |
·Agent的体系结构 | 第23-27页 |
·Agent基本结构 | 第24-25页 |
·慎思结构 | 第25页 |
·反应结构 | 第25-26页 |
·混合结构 | 第26-27页 |
·BDI(Belief-Desire-Intention)结构 | 第27页 |
·多智能体系统(Multi-Agent System,MAS) | 第27-33页 |
·多智能体系统的体系结构 | 第28-30页 |
·集中式结构 | 第28-29页 |
·分布式结构 | 第29页 |
·混合式结构 | 第29-30页 |
·多智能体系统协作方法 | 第30-33页 |
·合同网 | 第30-31页 |
·黑板模型 | 第31页 |
·结果共享的协同方法 | 第31-32页 |
·市场机制 | 第32-33页 |
·小结 | 第33-34页 |
第三章 强化学习理论及算法 | 第34-49页 |
·强化学习介绍 | 第34-37页 |
·强化学习的基本原理和模型 | 第34-35页 |
·强化学习的特点 | 第35-37页 |
·强化学习系统的组成要素 | 第37-40页 |
·强化学习的主要算法 | 第40-48页 |
·强化学习的目的 | 第40-41页 |
·强化学习算法的类型 | 第41-42页 |
·强化学习的主要算法 | 第42-48页 |
·小结 | 第48-49页 |
第四章 多智能体分布式两层强化学习协作方法 | 第49-64页 |
·方法的提出 | 第49-50页 |
·强化学习用于多智能体协作环境的方法 | 第50-52页 |
·集中控制方法 | 第50-51页 |
·分布式两层强化学习方法 | 第51-52页 |
·基于两层分布式强化学习的多智能体协作 | 第52-56页 |
·主要原理 | 第52-53页 |
·分布式两层强化学习方法 | 第53-56页 |
·智能体结构 | 第53-55页 |
·两层强化学习算法 | 第55-56页 |
·仿真实验及分析 | 第56-62页 |
·实验场景 | 第56-57页 |
·强化学习单元 | 第57-59页 |
·环境状态空间和动作空间的表示 | 第57-58页 |
·奖赏信号的设计 | 第58页 |
·动作选择策略 | 第58-59页 |
·Q值的学习与更新 | 第59页 |
·实验结果与分析 | 第59-62页 |
·小结 | 第62-64页 |
第五章 基于行为预测的多智能体强化学习协作 | 第64-79页 |
·方法的提出 | 第64-65页 |
·基于预测的分布式强化学习算法 | 第65-67页 |
·模型框架 | 第65-66页 |
·算法描述及框架 | 第66-67页 |
·行为预测方法 | 第67-70页 |
·预测最大型 | 第67-68页 |
·等概率预测型 | 第68-69页 |
·基于分布律假设检验的最大预测型 | 第69-70页 |
·仿真实验 | 第70-77页 |
·实验场景 | 第70-71页 |
·强化学习单元 | 第71-72页 |
·环境状态空间和动作空间的表示 | 第71页 |
·强化信号的设计 | 第71页 |
·动作选择策略 | 第71-72页 |
·Q值的学习与更新 | 第72页 |
·实验结果与分析 | 第72-76页 |
·基于分布律假设检验方法与分布式两层强化学习协作方法的比较 | 第76-77页 |
·小结 | 第77-79页 |
第六章 结束语 | 第79-81页 |
参考文献 | 第81-87页 |
攻读硕士学位期间参加科研项目与发表的学术论文 | 第87-88页 |
致谢 | 第88页 |