内容提要 | 第1-7页 |
第一章 绪论 | 第7-15页 |
·研究背景 | 第7页 |
·研究现状及存在问题 | 第7-11页 |
·国内研究现状 | 第8-9页 |
·国外研究现状 | 第9-11页 |
·存在问题 | 第11页 |
·研究意义 | 第11-12页 |
·研究思路和主要研究内容 | 第12-14页 |
·本章小结 | 第14-15页 |
第二章 交通控制与交通诱导协同综述 | 第15-25页 |
·交通控制与诱导协同的必要性 | 第15-16页 |
·交通控制与诱导协同的理论基础 | 第16-17页 |
·交通控制与诱导协同模式及协同模型研究 | 第17-22页 |
·交通控制与诱导协同需要解决的几个问题 | 第22-24页 |
·本章小结 | 第24-25页 |
第三章 基于多智能体的交通控制与诱导协同框架研究 | 第25-39页 |
·多智能体技术及其在交通领域中的应用 | 第26-29页 |
·多智能体技术及其优越性 | 第26-28页 |
·多智能体技术在交通领域中的应用 | 第28-29页 |
·基于多智能体的交通控制与诱导协同框架研究 | 第29-35页 |
·基于多智能体的交通控制与诱导协同框架 | 第30-32页 |
·基于多智能体的协同框架中Agent的模型 | 第32-33页 |
·基于多智能体的协同框架中Agent的学习方法 | 第33-35页 |
·基于Q-学习的协同决策支持 | 第35-37页 |
·本章小结 | 第37-39页 |
第四章 基于Q-学习的协同模式选择方法研究 | 第39-55页 |
·交通控制与诱导协同模式选择问题研究 | 第39-41页 |
·影响协同模式的因素 | 第39-40页 |
·离线式协同模式选择 | 第40-41页 |
·协同模式选择的Agent模型 | 第41-47页 |
·Agent对环境的认识 | 第41-42页 |
·Agent所要采取的行动 | 第42-45页 |
·Agent所要完成的任务 | 第45-46页 |
·协同层Agent的工作原理 | 第46-47页 |
·基于Q-学习的协同模式选择方法 | 第47-53页 |
·基于单智能体的Q-学习算法 | 第47-49页 |
·回报函数的建立 | 第49-50页 |
·行为策略的选择 | 第50-51页 |
·算法步骤 | 第51-53页 |
·小结 | 第53-55页 |
第五章 基于Q-学习的战略层Agent协调方法研究 | 第55-79页 |
·两个战略层Agent之间的协作机理 | 第55-57页 |
·交通控制和交通诱导战略Agent的模型 | 第57-59页 |
·交通控制战略Agent的构建 | 第57-58页 |
·交通诱导战略Agent的构建 | 第58-59页 |
·基于Q-学习的战略层Agent协调方法 | 第59-64页 |
·基于元对策的多智能体Q-学习算法 | 第60-61页 |
·回报函数的建立 | 第61-62页 |
·算法步骤 | 第62-63页 |
·求解元对策平衡解 | 第63-64页 |
·仿真验证 | 第64-78页 |
·对比试验设计 | 第65-73页 |
·结果分析 | 第73-77页 |
·结论 | 第77-78页 |
·本章小结 | 第78-79页 |
第六章 全文总结与展望 | 第79-81页 |
参考文献 | 第81-84页 |
摘要 | 第84-86页 |
ABSTRACT | 第86-89页 |
致谢 | 第89页 |