摘要 | 第5-7页 |
ABSTRACT | 第7-8页 |
第一章 绪论 | 第11-17页 |
1.1 研究背景 | 第11-12页 |
1.2 智能仓储研究现状 | 第12-13页 |
1.3 强化学习研究现状 | 第13-15页 |
1.4 本文研究的主要内容 | 第15页 |
1.5 论文组织结构 | 第15-17页 |
第二章 强化学习 | 第17-24页 |
2.1 强化学习模型与基本要素 | 第17-19页 |
2.2 强化学习的数学模型 | 第19页 |
2.3 典型的强化学习算法 | 第19-22页 |
2.3.1 TD算法 | 第20页 |
2.3.2 Q-learning算法 | 第20-21页 |
2.3.3 Sarsa算法 | 第21-22页 |
2.4 本章小结 | 第22-24页 |
第三章 智能仓储中的路径规划和任务分配 | 第24-44页 |
3.1 问题建模 | 第24-27页 |
3.2 算法结构 | 第27-28页 |
3.3 基于单智能体强化学习的路径规划 | 第28-31页 |
3.3.1 奖惩函数 | 第29-30页 |
3.3.2 值函数 | 第30-31页 |
3.3.3 动作选择策略 | 第31页 |
3.4 基于遗传算法的多机器人任务分配 | 第31-37页 |
3.4.1 编码 | 第33-34页 |
3.4.2 适应度函数设计 | 第34-35页 |
3.4.3 遗传操作 | 第35-37页 |
3.5 仿真实验与分析 | 第37-43页 |
3.5.1 参数设置 | 第38页 |
3.5.2 实验结果与分析 | 第38-43页 |
3.6 本章小结 | 第43-44页 |
第四章 基于多智能体强化学习的路径规划 | 第44-56页 |
4.1 多智能体强化学习 | 第44-45页 |
4.2 多移动机器人路径规划 | 第45-46页 |
4.3 基于CQ-learning的多机器人路径规划 | 第46-50页 |
4.3.1 稀疏交互 | 第46-47页 |
4.3.2 CQ-learning算法 | 第47-49页 |
4.3.3 迁移学习 | 第49-50页 |
4.4 仿真实验与分析 | 第50-55页 |
4.4.1 参数设置及评价标准 | 第50-51页 |
4.4.2 实验结果与分析 | 第51-55页 |
4.5 本章小结 | 第55-56页 |
第五章 总结与展望 | 第56-58页 |
5.1 本文主要工作总结 | 第56页 |
5.2 工作展望 | 第56-58页 |
参考文献 | 第58-64页 |
致谢 | 第64-65页 |
攻读硕士学位发表的论文 | 第65-66页 |