摘要 | 第4-6页 |
Abstract | 第6-7页 |
第1章 绪论 | 第10-16页 |
1.1 课题来源及研究的背景和意义 | 第10-11页 |
1.2 工业机器人发展现状 | 第11-12页 |
1.3 国内外研究现状及分析 | 第12-14页 |
1.3.1 工业机器人通信协议的研究现状 | 第12-13页 |
1.3.2 机器人路径规划算法的研究现状 | 第13-14页 |
1.4 本文研究内容及章节安排 | 第14-16页 |
第2章 工业机器人通信组网方案 | 第16-34页 |
2.1 工业机器人通信组网方案 | 第16-18页 |
2.1.1 机器人与中央控制单元间通信 | 第17页 |
2.1.2 机器人间通信 | 第17-18页 |
2.2 基于LEACH的工业机器人通信系统路由算法 | 第18-26页 |
2.2.1 LEACH算法综述 | 第18-20页 |
2.2.2 迪杰斯特拉算法综述 | 第20页 |
2.2.3 基于LEACH算法的演变型路由算法 | 第20-24页 |
2.2.4 演变型动态LEACH路由算法的流程 | 第24-26页 |
2.3 机器人间通信组网架构 | 第26-28页 |
2.4 基于LEACH算法的演变型路由算法仿真结果 | 第28-31页 |
2.5 机器人间广播时间间隔性能仿真分析 | 第31-32页 |
2.6 本章小结 | 第32-34页 |
第3章 工业移动机器人路径规划算法理论分析 | 第34-50页 |
3.1 移动机器人路径规划问题概述 | 第34-35页 |
3.2 路径规划环境建模 | 第35-38页 |
3.2.1 栅格模型 | 第36页 |
3.2.2 拓扑模型 | 第36页 |
3.2.3 高维模型 | 第36页 |
3.2.4 机器人路径规划算法模型总结 | 第36-38页 |
3.3 路径规划算法分析 | 第38-39页 |
3.3.1 人工势场法 | 第38页 |
3.3.2 遗传算法 | 第38页 |
3.3.3 基于机器学习的路径规划算法 | 第38页 |
3.3.4 路径规划算法总结 | 第38-39页 |
3.4 神经网络 | 第39-41页 |
3.4.1 人工神经网络模型 | 第39-41页 |
3.4.2 神经网络反向传播 | 第41页 |
3.5 深度强化学习 | 第41-49页 |
3.5.1 强化学习框架结构 | 第41-45页 |
3.5.2 Q-学习 | 第45-46页 |
3.5.3 Q-网络 | 第46-47页 |
3.5.4 Deep Q-Learning Network | 第47-48页 |
3.5.5 Double DQN | 第48-49页 |
3.6 本章小结 | 第49-50页 |
第4章 基于深度强化学习的路径规划算法 | 第50-59页 |
4.1 改进型Double DQN路径规划算法 | 第50-53页 |
4.1.1 转向问题 | 第50-51页 |
4.1.2 奖励信息表改进 | 第51-52页 |
4.1.3 改进型ε-greedy动作选择策略 | 第52页 |
4.1.4 障碍物设定 | 第52-53页 |
4.2 算法流程 | 第53-55页 |
4.3 算法仿真结果与分析 | 第55-58页 |
4.4 本章小结 | 第58-59页 |
结论 | 第59-61页 |
参考文献 | 第61-65页 |
攻读硕士学位期间发表的论文及其他成果 | 第65-67页 |
致谢 | 第67页 |