面向无人驾驶的增强学习算法研究
摘要 | 第4-5页 |
ABSTRACT | 第5-6页 |
第一章 绪论 | 第9-16页 |
1.1 研究工作的背景与意义 | 第9-10页 |
1.2 国内外研究现状 | 第10-13页 |
1.2.1 无人驾驶研究现状 | 第10-11页 |
1.2.2 增强学习研究现状 | 第11-13页 |
1.3 研究内容 | 第13-14页 |
1.4 章节安排 | 第14-16页 |
第二章 增强学习理论基础 | 第16-34页 |
2.1 引言 | 第16-18页 |
2.2 马尔柯夫决策模型 | 第18-24页 |
2.2.1 马尔柯夫决策过程建模 | 第18-19页 |
2.2.2 值函数 | 第19-21页 |
2.2.3 马尔柯夫决策过程的动态规划解法 | 第21-24页 |
2.3 增强学习经典控制算法分析 | 第24-29页 |
2.3.1 时间差分算法 | 第24-25页 |
2.3.2 SARSA算法 | 第25-27页 |
2.3.3 Q学习算法 | 第27-29页 |
2.4 深度增强学习 | 第29-33页 |
2.5 本章小结 | 第33-34页 |
第三章 面向无人驾驶的增强学习算法设计与实现 | 第34-58页 |
3.1 引言 | 第34页 |
3.2 基于策略的增强学习 | 第34-37页 |
3.2.1 目标策略 | 第34-35页 |
3.2.2 策略函数 | 第35-36页 |
3.2.3 策略梯度 | 第36-37页 |
3.3 相关算法分析 | 第37-42页 |
3.3.1 确定性策略梯度算法 | 第37-39页 |
3.3.2 深度确定性策略梯度算法 | 第39-42页 |
3.4 面向无人驾驶的增强学习算法设计 | 第42-53页 |
3.4.1 仿真平台 | 第42-43页 |
3.4.2 算法设计与分析 | 第43-50页 |
3.4.3 算法实现 | 第50-53页 |
3.5 实验结果与分析 | 第53-57页 |
3.6 本章小结 | 第57-58页 |
第四章 基于残差深度增强学习的无人驾驶仿真 | 第58-69页 |
4.1 引言 | 第58页 |
4.2 神经网络的改进 | 第58-62页 |
4.3 回报函数的改进 | 第62-64页 |
4.4 实验结果与分析 | 第64-68页 |
4.5 本章小结 | 第68-69页 |
第五章 总结与展望 | 第69-71页 |
5.1 工作总结 | 第69-70页 |
5.2 工作展望 | 第70-71页 |
致谢 | 第71-72页 |
参考文献 | 第72-78页 |
攻读硕士学位期间取得的成果 | 第78页 |