摘要 | 第4-5页 |
abstract | 第5页 |
1 绪论 | 第8-14页 |
1.1 课题研究背景 | 第8-9页 |
1.2 课题研究目的与意义 | 第9-10页 |
1.3 相关知识 | 第10-12页 |
1.3.1 深度学习研究相关知识 | 第10-11页 |
1.3.2 强化学习研究相关知识 | 第11-12页 |
1.3.3 深度强化学习概述 | 第12页 |
1.4 论文主要研究内容和框架 | 第12-14页 |
2 深度强化学习算法 | 第14-29页 |
2.1 卷积神经网络 | 第14-19页 |
2.1.1 卷积层 | 第14-15页 |
2.1.2 池化层 | 第15-16页 |
2.1.3 激活函数 | 第16-19页 |
2.2 马尔科夫决策过程(MDP) | 第19-20页 |
2.3 Q-Learning算法 | 第20-22页 |
2.4 actor-critic框架 | 第22-23页 |
2.5 DQN算法 | 第23-25页 |
2.6 DPG算法简介 | 第25-26页 |
2.7 DDPG算法简介 | 第26页 |
2.8 PPO算法简介 | 第26-29页 |
3 基于DDPG算法的单个智能体控制 | 第29-46页 |
3.1 传统的工业机器人控制 | 第29-35页 |
3.1.1 伺服系统 | 第29-30页 |
3.1.2 D-H模型 | 第30-32页 |
3.1.3 实验室机械手平台 | 第32-33页 |
3.1.4 机械手臂的UI界面 | 第33-35页 |
3.2 Gym环境平台 | 第35-36页 |
3.2.1 Gym安装 | 第35-36页 |
3.2.2 自主添加Gym新环境 | 第36页 |
3.3 MuJoCo仿真环境 | 第36-39页 |
3.3.1 MoJoCo 安装 | 第36-37页 |
3.3.2 XML模型编写 | 第37-38页 |
3.3.3 机械臂模型设计 | 第38-39页 |
3.4 DDPG算法接口 | 第39-46页 |
3.4.1 实验硬件环境介绍 | 第39-40页 |
3.4.2 实验与网络结构设计 | 第40-42页 |
3.4.3 输入状态空间设计 | 第42-43页 |
3.4.4 奖励函数设计 | 第43-44页 |
3.4.5 实验结果与分析 | 第44-46页 |
4 基于MADDPG算法的多个智能体协同控制 | 第46-54页 |
4.1 多智能体系统(Multi Agent System,MAS) | 第46-47页 |
4.2 MADDPG算法 | 第47-48页 |
4.2.1 多智能体actor-critic框架 | 第47-48页 |
4.3 多智能体策略 | 第48-50页 |
4.4 MADDPG算法流程 | 第50-51页 |
4.5 实验配置 | 第51-54页 |
4.5.1 实验环境 | 第51-52页 |
4.5.2 网络设计 | 第52-54页 |
5 实验结果与分析 | 第54-55页 |
6 总结与展望 | 第55-57页 |
6.1 研究总结 | 第55页 |
6.2 未来展望 | 第55-57页 |
参考文献 | 第57-60页 |
致谢 | 第60页 |