| 摘要 | 第4-6页 |
| abstract | 第6-7页 |
| 第1章 绪论 | 第10-14页 |
| 1.1 研究背景及意义 | 第10-11页 |
| 1.2 协同式自适应巡航控制研究现状 | 第11-12页 |
| 1.3 本文研究内容和结构安排 | 第12-14页 |
| 第2章 基于Q-Learning的CACC技术 | 第14-26页 |
| 2.1 马尔科夫决策过程 | 第14-15页 |
| 2.2 时间差分法 | 第15-16页 |
| 2.3 基于Q-Learning的CACC跟驰控制 | 第16-26页 |
| 2.3.1 CACC跟驰控制Q-Learning算法 | 第16-17页 |
| 2.3.2 状态、动作和回报函数定义 | 第17-19页 |
| 2.3.3 启发式ε-贪婪动作选择策略 | 第19-20页 |
| 2.3.4 跟驰控制算法学习过程 | 第20-23页 |
| 2.3.5 跟驰控制算法执行过程 | 第23-26页 |
| 第3章 基于DeepQ-Learning的CACC技术 | 第26-37页 |
| 3.1 Q-Learning学习的局限 | 第26页 |
| 3.2 值函数逼近法 | 第26-27页 |
| 3.3 神经网络逼近值函数 | 第27页 |
| 3.3.1 神经网络 | 第27页 |
| 3.3.2 万能逼近定理 | 第27页 |
| 3.4 神经网络与Q-Learning | 第27-29页 |
| 3.5 基于DeepQ-Learning的CACC跟驰控制 | 第29-37页 |
| 3.5.1 状态、动作、回报函数定义和动作选择 | 第29-31页 |
| 3.5.2 网络结构及模型设计 | 第31-32页 |
| 3.5.3 跟驰控制算法学习过程 | 第32-35页 |
| 3.5.4 跟驰控制算法执行过程 | 第35-37页 |
| 第4章 对比实验 | 第37-50页 |
| 4.1 实验初始设置 | 第37页 |
| 4.2 训练数据集生成 | 第37-39页 |
| 4.3 实验结果对比 | 第39-50页 |
| 4.3.1 匀速跟车工况 | 第39-43页 |
| 4.3.2 走-停工况 | 第43-46页 |
| 4.3.3 紧急刹车工况 | 第46-49页 |
| 4.3.4 结论 | 第49-50页 |
| 第5章 总结与展望 | 第50-52页 |
| 参考文献 | 第52-55页 |
| 作者简介及科研成果 | 第55-56页 |
| 致谢 | 第56页 |