摘要 | 第4-5页 |
Abstract | 第5-6页 |
第1章 绪论 | 第11-19页 |
1.1 选题背景 | 第11-12页 |
1.2 研究的目的及意义 | 第12-13页 |
1.3 国内外研究现状分析 | 第13-16页 |
1.3.1 无人驾驶的国内外研究现状 | 第13-15页 |
1.3.2 深度强化学习的国内外研究现状 | 第15-16页 |
1.4 论文主要研究内容与创新点 | 第16-17页 |
1.4.1 论文主要研究内容 | 第16-17页 |
1.4.2 论文创新点 | 第17页 |
1.5 论文章节安排 | 第17-19页 |
第2章 深度强化学习理论基础 | 第19-31页 |
2.1 深度学习理论基础 | 第19-22页 |
2.1.1 神经网络的结构 | 第19-20页 |
2.1.2 神经网络的训练 | 第20-21页 |
2.1.3 深度学习模型 | 第21-22页 |
2.2 强化学习方法 | 第22-27页 |
2.2.1 强化学习框架与基本概念 | 第22-23页 |
2.2.2 基于值函数的强化学习方法 | 第23-24页 |
2.2.3 基于策略梯度的强化学习方法 | 第24-27页 |
2.3 基于深度学习的强化学习 | 第27-30页 |
2.3.1 深度Q网络算法(DQN) | 第28-29页 |
2.3.2 深度确定性策略梯度算法(DDPG) | 第29-30页 |
2.4 本章小结 | 第30-31页 |
第3章 集成的多深度确定策略梯度算法设计 | 第31-37页 |
3.1 集成的多深度确定性策略梯度(AMDDPG)算法 | 第31-35页 |
3.1.1 多个深度确定性策略梯度的集成学习结构 | 第31-32页 |
3.1.2 策略集成分析 | 第32-34页 |
3.1.3 中央经验回放池技术 | 第34-35页 |
3.1.4 训练模式与算法描述 | 第35页 |
3.2 本章小结 | 第35-37页 |
第4章 无人驾驶仿真系统架构设计 | 第37-43页 |
4.1 TORCS仿真平台简介 | 第37-38页 |
4.2 仿真环境的接口设计 | 第38-40页 |
4.3 仿真环境状态信息 | 第40页 |
4.4 仿真车辆的控制指令 | 第40-41页 |
4.5 无人驾驶仿真系统架构 | 第41页 |
4.6 本章小结 | 第41-43页 |
第5章 实验与结果分析 | 第43-57页 |
5.1 实验的软硬件环境 | 第43页 |
5.2 网络结构层次设计 | 第43-45页 |
5.3 回报函数设计 | 第45-48页 |
5.4 网络权重预训练 | 第48-49页 |
5.5 实验结果分析 | 第49-55页 |
5.5.1 学习曲线 | 第49-50页 |
5.5.2 训练时间 | 第50-51页 |
5.5.3 子策略集成的效果 | 第51-53页 |
5.5.4 集成策略的泛化性能 | 第53-54页 |
5.5.5 子策略数量对集成策略的影响 | 第54-55页 |
5.6 本章小结 | 第55-57页 |
第6章 总结与展望 | 第57-59页 |
6.1 研究总结 | 第57-58页 |
6.2 研究展望 | 第58-59页 |
参考文献 | 第59-63页 |
致谢 | 第63-65页 |
作者简历及攻读学位期间发表的学术论文与研究成果 | 第65页 |