摘要 | 第4-5页 |
Abstract | 第5-6页 |
1 绪论 | 第9-16页 |
1.1 研究背景及意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-14页 |
1.2.1 智能小车路径规划的主要技术 | 第10-12页 |
1.2.2 强化学习在智能小车路径规划中的应用 | 第12-14页 |
1.3 本文研究内容和方法 | 第14页 |
1.4 论文组织结构 | 第14-16页 |
2 预备知识介绍 | 第16-25页 |
2.1 强化学习 | 第16-20页 |
2.1.1 马尔可夫决策过程 | 第16-17页 |
2.1.2 强化学习基本模型 | 第17-19页 |
2.1.3 Q学习(Q?learning)算法 | 第19-20页 |
2.2 人工神经网络 | 第20-24页 |
2.2.1 人工神经元模型 | 第20-21页 |
2.2.2 BP神经网络 | 第21-24页 |
2.3 本章小结 | 第24-25页 |
3 实验环境介绍 | 第25-30页 |
3.1 实验环境搭建 | 第25-26页 |
3.2 环境状态定义 | 第26-29页 |
3.2.1 智能小车的状态定义 | 第26页 |
3.2.2 状态?动作值函数的建立 | 第26-27页 |
3.2.3 奖励函数的定义 | 第27-29页 |
3.3 本章小结 | 第29-30页 |
4 基于启发式知识与经验重放的深度Q学学习模型 | 第30-38页 |
4.1 基于启发式知识与经验重放的深度Q学习系统框架 | 第30-31页 |
4.2 使用启发式知识和经验重放训练深度Q学习 | 第31-37页 |
4.2.1 基于经验重放的深度Q学习 | 第31-32页 |
4.2.2 启发式知识 | 第32-33页 |
4.2.3 训练神经网络 | 第33-34页 |
4.2.4 算法描述 | 第34-37页 |
4.3 本章小结 | 第37-38页 |
5 智能小车路径规划仿真实验与结果分析 | 第38-48页 |
5.1 仿真实验参数 | 第38页 |
5.2 智能小车训练流程 | 第38-40页 |
5.3 算法收敛性比较 | 第40-42页 |
5.4 算法泛化性比较 | 第42-47页 |
5.4.1 实验1:改变智能小车的起点位置 | 第42-44页 |
5.4.2 实验2:改变地图中障碍物的位置 | 第44-47页 |
5.5 本章小结 | 第47-48页 |
6 总结与展望 | 第48-50页 |
6.1 总结 | 第48页 |
6.2 展望 | 第48-50页 |
参考文献 | 第50-56页 |
附录 | 第56-57页 |
致谢 | 第57页 |