网联环境下自主车的换道决策研究
摘要 | 第2-3页 |
Abstract | 第3-4页 |
1 绪论 | 第7-13页 |
1.1 研究背景 | 第7-8页 |
1.2 研究目的与意义 | 第8-9页 |
1.3 国内外研究现状 | 第9-12页 |
1.3.1 跟驰模型国内外研究现状 | 第9-10页 |
1.3.2 换道决策模型的国内外研究现状 | 第10-12页 |
1.4 论文的组织结构 | 第12-13页 |
2 相关研究 | 第13-27页 |
2.1 换道研究 | 第13-14页 |
2.1.1 选择性换道 | 第13页 |
2.1.2 强制性换道 | 第13页 |
2.1.3 换道过程划分 | 第13-14页 |
2.2 博弈论与纳什均衡 | 第14-16页 |
2.2.1 博弈论的基本概念及分类 | 第14-16页 |
2.2.2 纳什均衡 | 第16页 |
2.3 强化学习 | 第16-26页 |
2.3.1 强化学习的主要内容 | 第17-19页 |
2.3.2 马尔可夫决策过程 | 第19-21页 |
2.3.3 强化学习的探索策略 | 第21-23页 |
2.3.4 值函数逼近 | 第23-25页 |
2.3.5 值函数逼近的求解方法 | 第25-26页 |
2.4 本章小结 | 第26-27页 |
3 联合驾驶风格和博弈理论的换道决策 | 第27-42页 |
3.1 驾驶风格与换道 | 第27-29页 |
3.1.1 驾驶风格对换道的影响 | 第27-28页 |
3.1.2 基于车辆运行状态的驾驶风格计算 | 第28-29页 |
3.2 完全信息静态博弈换道分析 | 第29-30页 |
3.2.1 换道场景下的博弈要素 | 第29-30页 |
3.2.2 换道场景下的博弈分析 | 第30页 |
3.3 收益矩阵及均衡 | 第30-35页 |
3.3.1 车辆的博弈收益矩阵 | 第30-35页 |
3.3.2 纳什均衡的存在性及其求解 | 第35页 |
3.4 实验设计与分析 | 第35-41页 |
3.4.1 实验基础 | 第35-37页 |
3.4.2 自主车的换道决策仿真 | 第37-39页 |
3.4.3 博弈换道决策的验证与分析 | 第39-41页 |
3.5 本章小结 | 第41-42页 |
4 基于函数逼近Q学习的自主车换道决策 | 第42-54页 |
4.1 自主车换道决策的MDP建模 | 第42-45页 |
4.1.1 MDP状态分析与设计 | 第43-44页 |
4.1.2 MDP动作分析与设计 | 第44页 |
4.1.3 MDP回报分析与设计 | 第44-45页 |
4.2 Q学习(Q-learning)算法 | 第45-47页 |
4.3 函数逼近Q学习 | 第47-49页 |
4.4 实验设计与分析 | 第49-53页 |
4.4.1 实验设计 | 第49-50页 |
4.4.2 自主车的换道决策 | 第50-52页 |
4.4.3 换道决策验证 | 第52-53页 |
4.5 本章小结 | 第53-54页 |
结论 | 第54-56页 |
参考文献 | 第56-62页 |
攻读硕士学位期间发表学术论文情况 | 第62-63页 |
致谢 | 第63-65页 |