基于强化学习的多机器人围捕策略研究
摘要 | 第1-6页 |
Abstract | 第6-10页 |
第1章 绪论 | 第10-18页 |
·课题背景及其意义 | 第10-11页 |
·多机器人系统概述 | 第11-13页 |
·多机器人的发展 | 第11页 |
·一些典型的多机器人系统 | 第11-12页 |
·多机器人研究的现状及问题 | 第12-13页 |
·强化学习发展及现状 | 第13-15页 |
·强化学习的发展及现状 | 第13-14页 |
·强化学习在多智能体中的发展及应用 | 第14-15页 |
·强化学习现状的主要问题 | 第15页 |
·多机器人围捕研究现状 | 第15-17页 |
·本论文研究的内容及安排 | 第17-18页 |
第2章 机器人体系结构 | 第18-28页 |
·机器人动力学模型 | 第18-19页 |
·机器人的硬件结构 | 第19-23页 |
·C8051f019单片机 | 第20-21页 |
·CRM2400CNC无线通讯模块 | 第21-22页 |
·L298电机驱动芯片 | 第22-23页 |
·光电编码器 | 第23页 |
·软件平台 | 第23-24页 |
·直流电机的控制算法 | 第24-27页 |
·直流电机速度调节算法 | 第24-25页 |
·软件编程 | 第25-27页 |
·本章小结 | 第27-28页 |
第3章 强化学习基本理论及算法 | 第28-36页 |
·引言 | 第28页 |
·Markov决策过程(MDP) | 第28-29页 |
·强化学习 | 第29-34页 |
·强化学习的基本原理 | 第29-31页 |
·强化学习的基本方法 | 第31-34页 |
·本章小结 | 第34-36页 |
第4章 多机器人围捕方案的设计 | 第36-54页 |
·引言 | 第36-37页 |
·多机器人围捕模型 | 第37-42页 |
·机器人避障 | 第37-38页 |
·围捕任务建模 | 第38-40页 |
·逃跑者策略设计 | 第40-41页 |
·围捕者策略设计 | 第41-42页 |
·状态预测模型 | 第42-45页 |
·状态预测的基本原理 | 第42-44页 |
·状态预测的方法 | 第44-45页 |
·基于状态预测的强化学习设计方案 | 第45-47页 |
·基于状态预测的强化学习模型 | 第45-46页 |
·改进的Q学习算法 | 第46-47页 |
·多机器人围捕算法的实现 | 第47-50页 |
·环境状态和机器人行为分析 | 第47-48页 |
·奖赏函数的设计 | 第48-49页 |
·动作选取 | 第49页 |
·围捕策略 | 第49-50页 |
·基于状态预测的学习算法描述 | 第50页 |
·性能分析 | 第50-52页 |
·状态预测减小学习的空间 | 第50-51页 |
·改进的Q学习算法提高了学习的收敛速度 | 第51-52页 |
·本章小结 | 第52-54页 |
第5章 算法仿真 | 第54-62页 |
·仿真环境 | 第54页 |
·参数设置 | 第54页 |
·仿真结果 | 第54-61页 |
·不存在障碍物 | 第54-56页 |
·存在障碍物情况 | 第56-57页 |
·机器人出现故障 | 第57-58页 |
·围捕机器人临界速度分析 | 第58-61页 |
·本章小结 | 第61-62页 |
第6章 结论与展望 | 第62-64页 |
参考文献 | 第64-68页 |
致谢 | 第68页 |