摘要 | 第1-7页 |
ABSTRACT | 第7-13页 |
第一章 绪论 | 第13-27页 |
·引言 | 第13-14页 |
·学习方式 | 第14-15页 |
·强化学习发展历史 | 第15-16页 |
·AGENT强化学习技术 | 第16-19页 |
·多AGENT系统 | 第19-23页 |
·多Agent强化学习 | 第20-21页 |
·多Agent强化学习研究现状 | 第21-23页 |
·强化学习的应用 | 第23-25页 |
·本文的组织及主要工作 | 第25-27页 |
第二章 强化学习理论及算法 | 第27-48页 |
·引言 | 第27页 |
·强化学习的基本原理和模型 | 第27-28页 |
·强化学习的特点 | 第28-29页 |
·强化学习系统的主要组成要素 | 第29-31页 |
·强化学习的主要算法 | 第31-41页 |
·强化学习算法的目的 | 第31-32页 |
·强化学习算法的类型 | 第32-33页 |
·马尔可夫决策过程(MDP)模型 | 第33-35页 |
·Monte Carlo方法 | 第35-36页 |
·瞬时差分(temporal difference, TD)算法 | 第36-38页 |
·Q学习 | 第38-40页 |
·Sarsa算法 | 第40-41页 |
·基于平均报酬模型的强化学习算法 | 第41-45页 |
·报酬模型 | 第41页 |
·最优策略 | 第41-43页 |
·基于平均报酬模型的强化学习主要算法 | 第43-45页 |
·R学习算法 | 第43-44页 |
·H学习算法 | 第44-45页 |
·强化学习中函数逼近问题 | 第45-46页 |
·强化学习中的探索与利用 | 第46-47页 |
·本章小结 | 第47-48页 |
第三章 连续状态空间下的自适应状态空间构建策略 | 第48-68页 |
·引言 | 第48页 |
·输入状态空间的量化方法 | 第48-50页 |
·BOX方法 | 第48-49页 |
·Kohonen神经网络聚类方法 | 第49-50页 |
·采用模糊方法进行量化 | 第50页 |
·采用函数逼近器实现强化学习泛化 | 第50-51页 |
·基于归一化RBF网络的AHC学习 | 第51-60页 |
·RBF网络与归一化RBF(NRBF)网络 | 第51-55页 |
·基于NRBF的强化学习 | 第55-58页 |
·NRBF的自适应状态空间构建策略 | 第58-60页 |
·仿真实验 | 第60-66页 |
·机器人避障实验 | 第60-64页 |
·机器人导航实验 | 第64-66页 |
·本章小结 | 第66-68页 |
第四章 基于递阶遗传算法的模糊强化学习系统 | 第68-97页 |
·引言 | 第68-69页 |
·模糊控制系统 | 第69-75页 |
·模糊控制系统原理 | 第69-70页 |
·模糊控制器设计 | 第70-75页 |
·模糊控制器输入变量和输出变量的确定 | 第70-71页 |
·隶属度函数的确定 | 第71页 |
·模糊控制器控制规则设计 | 第71-72页 |
·知识库 | 第72页 |
·模糊化和解模糊化 | 第72-74页 |
·模糊控制器参数的确定 | 第74-75页 |
·遗传算法(GA) | 第75-82页 |
·简单遗传算法 | 第75-81页 |
·编码 | 第76-77页 |
·适应度函数 | 第77页 |
·种群初始化 | 第77-78页 |
·选择/复制 | 第78-79页 |
·交叉 | 第79页 |
·变异 | 第79-80页 |
·控制参数的选择 | 第80-81页 |
·递阶遗传算法 | 第81-82页 |
·基于递阶遗传算法的模糊强化学习系统(HGAFRL) | 第82-92页 |
·系统结构 | 第82-83页 |
·自适应评价网络 | 第83-85页 |
·动作选择网络 | 第85-92页 |
·模糊自适应控制网络 | 第85-90页 |
·模糊输出置信度网络 | 第90-92页 |
·仿真实验及分析 | 第92-96页 |
·本章小结 | 第96-97页 |
第五章 多 AGENT系统分布式强化学习研究 | 第97-123页 |
·引言 | 第97-98页 |
·多AGENT系统分布式强化学习 | 第98-104页 |
·独立强化学习系统 | 第99-101页 |
·群体强化学习系统 | 第101-104页 |
·多Agent系统协调机制 | 第104页 |
·分布式强化学习结构信度分配问题 | 第104-106页 |
·分布式强化学习算法 | 第106-112页 |
·分布式强化学习框架 | 第106页 |
·Markov对策理论基础 | 第106-109页 |
·分布式强化学习算法 | 第109-112页 |
·Minmax-Q学习 | 第109-110页 |
·Nash-Q学习 | 第110-111页 |
·Friend-or-Foe Q学习 | 第111-112页 |
·改进的分布式Q学习算法 | 第112-116页 |
·算法描述 | 第112-114页 |
·仿真实验 | 第114-116页 |
·问题描述 | 第114-115页 |
·仿真结果及分析 | 第115-116页 |
·共享经验策略下构建环境模型 | 第116-122页 |
·估计环境模型 | 第117页 |
·共享经验策略估计环境模型 | 第117-118页 |
·实验仿真与结果分析 | 第118-122页 |
·本章小结 | 第122-123页 |
第六章 总结与展望 | 第123-125页 |
参考文献 | 第125-133页 |
致谢 | 第133-134页 |
攻读博士期间已发表或录用的论文 | 第134页 |