摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-14页 |
1.1 课题研究的目的和意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-13页 |
1.2.1 路径规划研究现状 | 第9-11页 |
1.2.2 强化学习研究现状 | 第11-13页 |
1.3 本文的主要研究内容和结构安排 | 第13-14页 |
第2章 基于聚类的无人机部署方法 | 第14-22页 |
2.1 聚类算法 | 第14-18页 |
2.1.1 k-means | 第14-15页 |
2.1.2 DBSCAN算法 | 第15-18页 |
2.2 基于聚类的无人机部署算法 | 第18-21页 |
2.3 本章小结 | 第21-22页 |
第3章 Q-learning单无人机路径规划算法 | 第22-36页 |
3.1 路径规划环境建模 | 第22-23页 |
3.1.1 栅格模型 | 第22页 |
3.1.2 拓扑模型 | 第22-23页 |
3.1.3 高维模型 | 第23页 |
3.2 基于机器学习的路径规划算法 | 第23页 |
3.3 Q-learning单目标路径规划 | 第23-29页 |
3.3.1 强化学习组成结构 | 第23-27页 |
3.3.2 Q-learning | 第27-28页 |
3.3.3 基于Q-learning实现路径规划 | 第28-29页 |
3.4 单无人机单目标问题算法优化 | 第29-33页 |
3.4.1 初始化价值函数的优化方法 | 第29-31页 |
3.4.2 更改状态动作空间的优化方法 | 第31-33页 |
3.5 Q-learning多目标路径规划 | 第33-35页 |
3.6 本章小结 | 第35-36页 |
第4章 基于MADDPG的多目标路径规划 | 第36-48页 |
4.1 神经网络 | 第36-38页 |
4.1.1 人工神经网络模型 | 第36-37页 |
4.1.2 神经网络反向传播 | 第37-38页 |
4.2 基于策略的强化学习方法 | 第38-42页 |
4.2.1 Actor-Critic算法 | 第39-40页 |
4.2.2 DDPG算法 | 第40-42页 |
4.3 多无人机多目标路径规划算法 | 第42-45页 |
4.3.1 多无人机多目标模型 | 第42页 |
4.3.2 基于MADDPG实现多无人机路径规划问题 | 第42-45页 |
4.4 仿真与分析 | 第45-47页 |
4.5 本章小结 | 第47-48页 |
第5章 多无人机路径规划的系统实现 | 第48-58页 |
5.1 核心架构 | 第48-52页 |
5.1.1 Spring Boot | 第48-50页 |
5.1.2 Spring Cloud-Eureka | 第50-51页 |
5.1.3 Spring Cloud-Zuul | 第51-52页 |
5.2 项目架构 | 第52页 |
5.3 系统实现 | 第52-57页 |
5.3.1 反向代理与负载均衡 | 第52-53页 |
5.3.2 无人机部署系统实现 | 第53-55页 |
5.3.3 路径规划系统实现 | 第55-57页 |
5.4 本章小结 | 第57-58页 |
结论 | 第58-59页 |
参考文献 | 第59-63页 |
攻读硕士学位期间发表的论文及其他成果 | 第63-65页 |
致谢 | 第65页 |