摘要 | 第6-7页 |
abstract | 第7-8页 |
第1章 绪论 | 第12-18页 |
1.1 研究的背景和意义 | 第12-13页 |
1.2 国内外研究现状 | 第13-15页 |
1.2.1 国外研究现状 | 第13-14页 |
1.2.2 国内研究现状 | 第14-15页 |
1.3 研究的目标和内容 | 第15-16页 |
1.4 本文组织结构 | 第16-18页 |
第2章 相关研究工作 | 第18-29页 |
2.1 概述 | 第18页 |
2.2 强化学习模型 | 第18-21页 |
2.2.1 基于强化学习算法的智能控制策略 | 第19页 |
2.2.2 强化学习的MDP模型 | 第19-20页 |
2.2.3 强化学习的最优策略 | 第20-21页 |
2.3 强化学习主要算法与探索策略 | 第21-24页 |
2.3.1 TD算法 | 第21-22页 |
2.3.2 Q学习算法 | 第22页 |
2.3.3 Sarsa学习算法 | 第22-23页 |
2.3.4 强化学习探索策略 | 第23-24页 |
2.4 模糊逻辑控制模型 | 第24-26页 |
2.5 交通控制系统的主要参数 | 第26-28页 |
2.5.1 交通信号相位 | 第26-27页 |
2.5.2 相位绿灯时间参数 | 第27页 |
2.5.3 车辆饱和度参数 | 第27页 |
2.5.4 性能指标参数 | 第27-28页 |
2.6 本章小结 | 第28-29页 |
第3章 基于模糊Q学习的交通灯控制算法 | 第29-39页 |
3.1 概述 | 第29-30页 |
3.2 基于Q学习的交通灯动态配时策略 | 第30-33页 |
3.2.1 状态描述 | 第30-31页 |
3.2.2 动作选择 | 第31-33页 |
3.3 模糊逻辑控制优化Q学习动作选择策略 | 第33-38页 |
3.3.1 模糊控制概念与特点 | 第34-35页 |
3.3.2 数据模糊化 | 第35-36页 |
3.3.3 模糊推理 | 第36-37页 |
3.3.4 清晰化 | 第37-38页 |
3.4 本章小结 | 第38-39页 |
第4章 基于强化学习的交通灯控制与车辆诱导算法 | 第39-48页 |
4.1 概述 | 第39-40页 |
4.2 传统车辆诱导算法 | 第40-41页 |
4.2.1 Dijkstra算法 | 第40-41页 |
4.3 基于Sarsa学习的车辆诱导策略 | 第41-44页 |
4.3.1 状态描述 | 第42页 |
4.3.2 动作选择 | 第42-44页 |
4.4 基于强化学习的交通灯控制与车辆诱导协同策略 | 第44-47页 |
4.4.1 交通灯控制与车辆诱导协同方式 | 第44-46页 |
4.4.2 交通灯控制与车辆诱导协同模型 | 第46-47页 |
4.5 本章小结 | 第47-48页 |
第5章 仿真与实验结果分析 | 第48-57页 |
5.1 SUMO仿真器 | 第48-50页 |
5.1.1 SUMO仿真器介绍 | 第48页 |
5.1.2 SUMO仿真器仿真界面 | 第48-50页 |
5.2 交通控制算法仿真实验 | 第50-56页 |
5.2.1 仿真设置 | 第50页 |
5.2.2 基于Q学习的交通灯控制算法 | 第50-52页 |
5.2.3 基于模糊Q学习的交通灯控制算法 | 第52-54页 |
5.2.4 基于强化学习的交通灯控制与车辆诱导算法 | 第54-56页 |
5.3 本章小结 | 第56-57页 |
结论 | 第57-59页 |
参考文献 | 第59-63页 |
攻读硕士学位期间发表的论文和获得的科研成果 | 第63-64页 |
致谢 | 第64-65页 |