摘要 | 第1-9页 |
ABSTRACT | 第9-10页 |
第一章 绪论 | 第10-19页 |
·研究背景 | 第10-15页 |
·战争系统的复杂性 | 第10-11页 |
·想定生成与优化所遇到的困难 | 第11-12页 |
·数据耕耘 | 第12-15页 |
·国内外研究现状 | 第15-17页 |
·国外现状 | 第15-16页 |
·国内现状 | 第16-17页 |
·本文的结构 | 第17-19页 |
第二章 数据耕耘的多Agent仿真实现框架 | 第19-28页 |
·Agent理论 | 第19-22页 |
·Agent定义 | 第19-20页 |
·Agent结构 | 第20-22页 |
·数据耕耘多Agent仿真实现原因及过程分析 | 第22-28页 |
·数据耕耘采用多Agent仿真实现的原因 | 第22-23页 |
·基于Agent建模与探索的想定建立循环 | 第23-24页 |
·基于Agent协作与学习的想定优化循环 | 第24-25页 |
·探索与学习的关系 | 第25-28页 |
第三章 想定生成中基于数据耕耘的多Agent建模与探索 | 第28-41页 |
·Agent模型的构建 | 第28-34页 |
·多分辨率建模思想 | 第28-31页 |
·Agent属性建模 | 第31-32页 |
·Agent行为建模 | 第32-34页 |
·Agent模型的属性探索 | 第34-38页 |
·属性探索阶段 | 第34-36页 |
·模型输入变量的提取 | 第36-38页 |
·Agent模型的行为探索 | 第38-41页 |
·行为探索过程 | 第38-39页 |
·探索最优行为 | 第39-41页 |
第四章 想定优化中基于数据耕耘的多Agent协作与学习 | 第41-54页 |
·基于博弈推理的Agent协作 | 第41-45页 |
·博弈的基础理论 | 第41-42页 |
·多Agent博弈决策中遇到的问题 | 第42-44页 |
·多Agent协作与学习的关系 | 第44-45页 |
·Q学习算法 | 第45-49页 |
·强化学习 | 第45-46页 |
·Q学习算法的提出 | 第46页 |
·Q值的更新 | 第46-49页 |
·基于长期得益矩阵的Agent学习算法 | 第49-54页 |
·基于长期得益矩阵学习算法相关的定义 | 第50-51页 |
·长期得益矩阵元素更新 | 第51-52页 |
·算法过程 | 第52-54页 |
第五章 应用实例 | 第54-63页 |
·军事应用背景 | 第54-55页 |
·实体模型层次划分 | 第55-56页 |
·探索分析 | 第56-58页 |
·想定优化中的Agent学习 | 第58-59页 |
·仿真实验的过程及结果 | 第59-63页 |
结束语 | 第63-64页 |
致谢 | 第64-65页 |
参考文献 | 第65-68页 |
附录A 攻读硕士学位期间参加科研情况 | 第68-69页 |
附录B 作者在学期间取得的学术成果 | 第69页 |