摘要 | 第1-4页 |
Abstract | 第4-7页 |
第一章 绪论 | 第7-11页 |
·强化学习概述 | 第7-8页 |
·多 Agent 强化学习与多核技术 | 第8-9页 |
·研究背景 | 第8-9页 |
·研究现状 | 第9页 |
·本文的主要工作和组织结构 | 第9-11页 |
第二章 强化学习简介 | 第11-19页 |
·强化学习与马尔可夫决策 | 第11-12页 |
·强化学习基本模型 | 第12-13页 |
·强化学习算法 | 第13-16页 |
·瞬时差分学习 | 第14-15页 |
·Sarsa 学习 | 第15-16页 |
·Q 学习 | 第16-18页 |
·本章小结 | 第18-19页 |
第三章 多 Agent 强化学习 | 第19-31页 |
·多 Agent 强化学习简介 | 第19页 |
·多 Agent 强化学习模型 | 第19-26页 |
·任务层 | 第20-22页 |
·工作层 | 第22-24页 |
·通信层 | 第24-25页 |
·决策层 | 第25-26页 |
·多 Agent 强化学习流程 | 第26-27页 |
·与多核技术的结合 | 第27-30页 |
·并行随机访问机模型 | 第27-28页 |
·多核环境下的实现 | 第28-29页 |
·多核环境下性能评价标准 | 第29-30页 |
·本章小结 | 第30-31页 |
第四章 基于主任务分发的多 Agent Q 学习 | 第31-47页 |
·基于主任务分发的多 Agent Q 学习模型 | 第31-33页 |
·同构环境任务层和工作层实现 | 第31-32页 |
·基于信息融合方式的决策层实现 | 第32页 |
·加锁模式通信层实现 | 第32-33页 |
·多核环境下的实现 | 第33-34页 |
·多 Agent Q 学习工作流程 | 第34-35页 |
·机器人路径规划应用 | 第35-36页 |
·仿真环境设置 | 第35页 |
·机器人行为及行为瞬时奖赏函数的设计 | 第35-36页 |
·仿真实验 | 第36-45页 |
·简单环境 | 第37-41页 |
·复杂环境 | 第41-44页 |
·实验总结 | 第44-45页 |
·本章小结 | 第45-47页 |
第五章 基于子任务分配的多 Agent Q 学习 | 第47-69页 |
·基于子任务分配的多 Agent Q 学习模型 | 第47-50页 |
·异构环境任务层和工作层实现 | 第47-48页 |
·基于信息仲裁技术的决策层实现 | 第48-49页 |
·无锁模式通信层实现 | 第49-50页 |
·多核环境下的实现 | 第50-52页 |
·多 Agent Q 学习工作流程 | 第52页 |
·多路口交通信号控制应用 | 第52-58页 |
·仿真环境设置 | 第52-56页 |
·路口控制 Agent 行为状态及行为瞬时奖赏函数的设计 | 第56-57页 |
·仲裁 Agent 设计实现 | 第57-58页 |
·仿真实验 | 第58-66页 |
·低流量情况仿真 | 第60-61页 |
·中流量情况仿真 | 第61-63页 |
·高流量情况仿真 | 第63-65页 |
·实验分析 | 第65-66页 |
·无锁模式通信实验 | 第66-68页 |
·实验仿真对比 | 第66-68页 |
·实验小结 | 第68页 |
·本章小结 | 第68-69页 |
第六章 结束语 | 第69-71页 |
·本文总结 | 第69页 |
·问题与展望 | 第69-71页 |
致谢 | 第71-73页 |
参考文献 | 第73-77页 |