基于DQN的机械臂控制策略的研究
致谢 | 第5-6页 |
摘要 | 第6-7页 |
ABSTRACT | 第7-8页 |
1 绪论 | 第12-18页 |
1.1 研究背景及意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-16页 |
1.2.1 机器人控制策略 | 第13-15页 |
1.2.2 深度学习 | 第15页 |
1.2.3 强化学习 | 第15-16页 |
1.3 研究内容 | 第16页 |
1.4 论文组织结构 | 第16-18页 |
2 相关理论基础 | 第18-29页 |
2.1 深度学习 | 第18-24页 |
2.1.1 深度学习基本思想 | 第18页 |
2.1.2 人工神经网络 | 第18-23页 |
2.1.3 卷积神经网络 | 第23-24页 |
2.2 强化学习 | 第24-28页 |
2.2.1 强化学习简介 | 第24-25页 |
2.2.2 强化学习数学模型 | 第25-26页 |
2.2.3 策略迭代与值迭代 | 第26-27页 |
2.2.4 Q-learning算法 | 第27-28页 |
2.3 本章小结 | 第28-29页 |
3 基于引导式DQN的机械臂控制策略 | 第29-45页 |
3.1 机械臂控制策略的马尔可夫建模 | 第29-34页 |
3.1.1 机械臂感知环境模型 | 第29-30页 |
3.1.2 机械臂动作空间 | 第30-31页 |
3.1.3 数据增强 | 第31-33页 |
3.1.4 系统状态模型 | 第33-34页 |
3.1.5 基于机械臂控制策略的回报函数设计 | 第34页 |
3.2 DQN策略控制 | 第34-39页 |
3.2.1 机械臂策略网络 | 第35-37页 |
3.2.2 策略网络优化模型 | 第37-39页 |
3.3 基于引导式DQN的算法设计 | 第39-43页 |
3.3.1 网络结构 | 第39-41页 |
3.3.2 采样算法 | 第41-42页 |
3.3.3 深层探索策略 | 第42-43页 |
3.4 本章小结 | 第43-45页 |
4 基于递归式DQN的机械臂控制策略 | 第45-57页 |
4.1 部分可观测马尔科夫决策过程 | 第45-48页 |
4.1.1 部分可观测机械臂环境建模 | 第46-48页 |
4.2 基于递归式DQN的算法设计 | 第48-52页 |
4.2.1 递归神经网络模型 | 第48-51页 |
4.2.2 基于LSTM的隐含信息建模 | 第51-52页 |
4.3 机械臂安全保障机制 | 第52-56页 |
4.3.1 机械臂关节坐标 | 第52-54页 |
4.3.2 与外框支架的碰撞 | 第54-55页 |
4.3.3 与自身的碰撞 | 第55-56页 |
4.4 本章小结 | 第56-57页 |
5 真实场景下的实验及结果分析 | 第57-68页 |
5.1 真实场景系统 | 第57-58页 |
5.1.1 机械臂平台介绍 | 第57-58页 |
5.1.2 其他软硬件环境 | 第58页 |
5.2 实验的设计与实现 | 第58-59页 |
5.2.1 实验的模型实现 | 第58-59页 |
5.2.2 评价标准设计 | 第59页 |
5.3 实验结果分析 | 第59-67页 |
5.3.1 各算法比较 | 第59-67页 |
5.4 本章小结 | 第67-68页 |
6 总结和展望 | 第68-70页 |
6.1 总结 | 第68页 |
6.2 展望 | 第68-70页 |
参考文献 | 第70-74页 |
作者简历及攻读硕士学位期间取得的研究成果 | 第74-76页 |
学位论文数据集 | 第76页 |