致谢 | 第7-8页 |
摘要 | 第8-9页 |
ABSTRACT | 第9页 |
第一章 绪论 | 第14-21页 |
1.1 课题背景、目的与意义 | 第14-16页 |
1.1.1研究背景 | 第14-16页 |
1.1.2 论文研究的目的和意义 | 第16页 |
1.2 国内外研究现状 | 第16-19页 |
1.2.1 应急路径修复相关研究 | 第16-18页 |
1.2.2 强化学习方法用于决策规划问题的相关研究 | 第18-19页 |
1.3 本文研究内容与论文组织 | 第19-21页 |
第二章 相关理论介绍 | 第21-32页 |
2.1 受损路网修复的基本原则 | 第21页 |
2.2 路网修复工作的约束条件 | 第21-22页 |
2.3 环境中的Agent | 第22-24页 |
2.4 有限马尔科夫决策过程 | 第24-26页 |
2.5 强化学习中的一般模型 | 第26-29页 |
2.5.1 目标与回报 | 第26-27页 |
2.5.2 策略和值函数 | 第27-28页 |
2.5.3 最优策略与最优值函数 | 第28-29页 |
2.6 Q-learning算法 | 第29-31页 |
2.7 本章小节 | 第31-32页 |
第三章 无连续受损路段下的抢修队调度问题的建模与求解 | 第32-47页 |
3.1 引言 | 第32页 |
3.2 问题描述 | 第32-34页 |
3.3 马尔科夫决策模型 | 第34-37页 |
3.3.1 Agent的动作 | 第34页 |
3.3.2 Agent的状态 | 第34-35页 |
3.3.3 Agent的回报模型 | 第35-36页 |
3.3.4 Agent的马尔科夫决策模型 | 第36-37页 |
3.4 基于Q-learning的调度策略求解 | 第37-39页 |
3.5 实验结果与分析 | 第39-46页 |
3.5.1 实验环境与参数设置 | 第39-40页 |
3.5.2 算法运行时间 | 第40-41页 |
3.5.3 路网修复效果 | 第41-43页 |
3.5.4 抢修队的规划方案 | 第43-46页 |
3.6 本章小节 | 第46-47页 |
第四章 连续受损路段下的抢修队调度问题的建模与求解 | 第47-65页 |
4.1 引言 | 第47页 |
4.2 问题描述 | 第47-49页 |
4.3 修复连续受损路段的决策模型 | 第49-54页 |
4.3.1 Agent的动作 | 第49页 |
4.3.2 Agent的状态 | 第49-50页 |
4.3.3 Agent的回报模型 | 第50-51页 |
4.3.4 修复连续受损路段的马尔科夫决策过程 | 第51-54页 |
4.4 基于Q-learning的连续受损路段中抢修队调度算法 | 第54-57页 |
4.4.1 Q-learning算法 | 第54页 |
4.4.2 α的设置 | 第54-56页 |
4.4.3 平衡Agent的探索和利用 | 第56-57页 |
4.5 实验结果与分析 | 第57-64页 |
4.5.1 路网环境的参数设置 | 第57-60页 |
4.5.2 路网修复效果 | 第60-61页 |
4.5.3 抢修队的规划方案 | 第61-64页 |
4.6 本章小节 | 第64-65页 |
第五章 总结与展望 | 第65-67页 |
5.1 本文的主要创新点 | 第65页 |
5.2 进一步的研究工作 | 第65-67页 |
5.2.1 受损路网的修复层面 | 第65-66页 |
5.2.2 求解算法层面 | 第66-67页 |
参考文献 | 第67-71页 |
攻读硕士学位期间的学术活动及成果情况 | 第71-72页 |