“空中牧羊犬行动”驱赶策略算法设计与研究
| 摘要 | 第5-6页 |
| ABSTRACT | 第6-7页 |
| 符号对照表 | 第11-12页 |
| 缩略语对照表 | 第12-15页 |
| 第一章 绪论 | 第15-23页 |
| 1.1 项目背景和研究意义 | 第15-16页 |
| 1.2 国内外研究现状 | 第16-20页 |
| 1.2.1 无人机任务规划技术的研究现状 | 第16-17页 |
| 1.2.2 强化学习的研究现状 | 第17-20页 |
| 1.3 主要工作内容 | 第20页 |
| 1.4 论文结构 | 第20-23页 |
| 第二章 仿真平台介绍 | 第23-31页 |
| 2.1 比赛规则说明 | 第23-25页 |
| 2.2 比赛场景建立 | 第25-28页 |
| 2.3 仿真流程说明 | 第28-30页 |
| 2.4 本章小结 | 第30-31页 |
| 第三章 全局驱赶算法设计和仿真 | 第31-45页 |
| 3.1 全局驱赶算法设计 | 第31-34页 |
| 3.1.1 总体设计思路 | 第31-32页 |
| 3.1.2 算法流程图 | 第32-34页 |
| 3.2 主要函数说明 | 第34-35页 |
| 3.3 全局驱赶算法实现 | 第35-37页 |
| 3.4 仿真实验 | 第37-44页 |
| 3.4.1 实验说明 | 第37-38页 |
| 3.4.2 实验结果与分析 | 第38-44页 |
| 3.5 本章小结 | 第44-45页 |
| 第四章 局部驱赶算法设计和仿真 | 第45-59页 |
| 4.1 局部驱赶算法设计 | 第45-47页 |
| 4.1.1 总体设计思路 | 第45-46页 |
| 4.1.2 算法流程图 | 第46-47页 |
| 4.2 主要函数说明 | 第47-50页 |
| 4.2.1 仿真序列更新 | 第47-49页 |
| 4.2.2 预测地面机器人运动状态 | 第49-50页 |
| 4.3 空中机器人状态调度 | 第50-52页 |
| 4.4 仿真实验 | 第52-57页 |
| 4.4.1 实验说明 | 第52页 |
| 4.4.2 实验结果与分析 | 第52-57页 |
| 4.5 本章小结 | 第57-59页 |
| 第五章 学习型驱赶算法设计和仿真 | 第59-77页 |
| 5.1 强化学习算法介绍 | 第59-64页 |
| 5.1.1 探索和利用 | 第59-60页 |
| 5.1.2 无模型学习 | 第60-64页 |
| 5.2 学习型驱赶算法设计 | 第64-69页 |
| 5.2.1 总体设计思路 | 第64-65页 |
| 5.2.2 状态空间的离散化 | 第65-66页 |
| 5.2.3 状态表和状态-动作值表 | 第66页 |
| 5.2.4 策略选择和奖赏函数 | 第66-68页 |
| 5.2.5 学习型驱赶算法流程 | 第68-69页 |
| 5.3 学习型驱赶算法实现 | 第69-70页 |
| 5.4 仿真实验 | 第70-76页 |
| 5.4.1 实验说明 | 第70页 |
| 5.4.2 实验结果和分析 | 第70-74页 |
| 5.4.3 局部驱赶算法和学习型驱赶算法对比 | 第74-76页 |
| 5.5 本章小结 | 第76-77页 |
| 第六章 总结和展望 | 第77-79页 |
| 6.1 工作总结 | 第77页 |
| 6.2 未来展望 | 第77-79页 |
| 参考文献 | 第79-81页 |
| 致谢 | 第81-83页 |
| 作者简介 | 第83-84页 |