摘要 | 第4-5页 |
Abstract | 第5页 |
第1章 绪论 | 第8-15页 |
1.1 课题研究背景及意义 | 第8-9页 |
1.2 国内外研究现状 | 第9-14页 |
1.2.1 无人驾驶技术的国内外研究现状 | 第9-11页 |
1.2.2 深度强化学习的国内外研究现状 | 第11-13页 |
1.2.3 深度强化学习在无人驾驶中的应用 | 第13-14页 |
1.3 课题研究的主要内容 | 第14-15页 |
第2章 无人车控制策略理论基础 | 第15-27页 |
2.1 深度强化学习原理 | 第15-21页 |
2.1.1 强化学习数学基础 | 第15-16页 |
2.1.2 强化学习求解方法 | 第16-18页 |
2.1.3 深度学习网络结构与训练模型 | 第18-21页 |
2.2 深度强化学习算法研究 | 第21-23页 |
2.2.1 基于值函数的深度强化学习 | 第21-22页 |
2.2.2 基于策略梯度的深度强化学习 | 第22-23页 |
2.3 深度确定性策略梯度(DDPG)算法框架 | 第23-26页 |
2.4 本章小结 | 第26-27页 |
第3章 CEC-DDPG算法设计 | 第27-42页 |
3.1 基于经验分类指导的确定性策略梯度(CEC-DDPG)算法 | 第27-28页 |
3.2 经验分类存放机制 | 第28-34页 |
3.3 随机指挥家网络 | 第34-35页 |
3.4 网络训练与参数更新 | 第35-39页 |
3.5 算法描述 | 第39-41页 |
3.6 本章小结 | 第41-42页 |
第4章 无人车仿真系统建模与调试 | 第42-51页 |
4.1 无人车仿真系统建模 | 第42-46页 |
4.1.1 仿真环境搭建 | 第42-44页 |
4.1.2 仿真环境的状态信息和控制动作 | 第44-45页 |
4.1.3 仿真系统框架设计 | 第45-46页 |
4.2 无人车控制策略模型实现 | 第46-50页 |
4.2.1 DDPG建模分析 | 第46-47页 |
4.2.2 CEC-DDPG建模分析 | 第47-48页 |
4.2.3 网络模型实验调试 | 第48-50页 |
4.3 本章小结 | 第50-51页 |
第5章 无人车控制策略仿真验证 | 第51-67页 |
5.1 软硬件环境搭建 | 第51-52页 |
5.1.1 实验环境配置 | 第51页 |
5.1.2 CEC-DDPG算法超参数设计 | 第51-52页 |
5.2 奖励函数设计 | 第52-57页 |
5.3 最优采样比 | 第57-59页 |
5.4 最终仿真实验效果 | 第59-66页 |
5.4.1 策略学习速度 | 第60-63页 |
5.4.2 跟踪误差表现 | 第63-66页 |
5.4.3 控制策略的泛化性能 | 第66页 |
5.5 本章小结 | 第66-67页 |
结论 | 第67-68页 |
参考文献 | 第68-72页 |
致谢 | 第72页 |