基于强化学习的多机器人协作控制方法研究
摘要 | 第1-7页 |
Abstract | 第7-10页 |
第1章 绪论 | 第10-18页 |
·课题研究的背景及意义 | 第10页 |
·多机器人协作控制方法研究 | 第10-12页 |
·多机器人系统及强化学习在其应用的研究现状 | 第12-17页 |
·多机器人系统的研究现状 | 第12-15页 |
·强化学习在多机器人系统中应用的研究现状 | 第15-17页 |
·本文的组织结构 | 第17-18页 |
第2章 强化学习理论与算法 | 第18-25页 |
·马尔可夫决策过程 | 第18页 |
·强化学习系统的模型与基本要素 | 第18-21页 |
·强化学习的主要算法 | 第21-24页 |
·动态规划算法 | 第21-22页 |
·蒙特卡罗算法 | 第22-23页 |
·瞬时差分算法 | 第23页 |
·Q 学习算法 | 第23-24页 |
·本章小结 | 第24-25页 |
第3章 机器人路径规划的强化学习方法 | 第25-39页 |
·静态环境中机器人路径规划 | 第25-33页 |
·传感器模型 | 第25-26页 |
·静态环境中路径探索策略 | 第26-29页 |
·机器人的动作选择策略 | 第29-31页 |
·仿真实验与分析 | 第31-33页 |
·动态环境中机器人路径规划 | 第33-38页 |
·动态环境中路径探索策略 | 第34-36页 |
·仿真实验与分析 | 第36-38页 |
·本章小结 | 第38-39页 |
第4章 多机器人协作围捕的混合强化学习方法 | 第39-58页 |
·系统体系结构 | 第39-41页 |
·多机器人协作围捕的强化学习系统结构 | 第41-42页 |
·模糊 Q 学习 | 第42-48页 |
·模糊逻辑介绍 | 第42-44页 |
·模糊 Q 学习 | 第44-48页 |
·启发式奖惩函数 | 第48-51页 |
·启发式奖惩函数的提出 | 第48-50页 |
·启发式奖惩函数的设计 | 第50-51页 |
·机器人行为冲突消解 | 第51-52页 |
·黑板通信方式 | 第51-52页 |
·基于协商和意愿强度的协调方法 | 第52页 |
·仿真实验与分析 | 第52-57页 |
·围捕任务介绍 | 第52-54页 |
·实验结果与分析 | 第54-57页 |
·本章小结 | 第57-58页 |
结论 | 第58-60页 |
参考文献 | 第60-66页 |
攻读硕士学位期间发表的论文和取得的科研成果 | 第66-67页 |
致谢 | 第67-68页 |