摘要 | 第1-6页 |
ABSTRACT | 第6-9页 |
第1章 绪论 | 第9-18页 |
·多智能体系统简介 | 第9-11页 |
·人工智能与多智能体 | 第9-11页 |
·多智能体系统特点 | 第11页 |
·机器人足球比赛简介 | 第11-13页 |
·概述 | 第11-12页 |
·机器人足球比赛特点 | 第12-13页 |
·足球机器人决策 | 第13页 |
·研究现状 | 第13-16页 |
·多智能体系统研究内容 | 第13-15页 |
·足球智能体决策研究现状 | 第15-16页 |
·文章主要内容和安排 | 第16-18页 |
第2章 背景知识 | 第18-30页 |
·Markov决策过程 | 第18-24页 |
·Markov决策过程模型介绍 | 第19-22页 |
·值函数和策略 | 第22-24页 |
·半马尔可夫决策过程 | 第24页 |
·Markov决策过程经典求解方法 | 第24-28页 |
·后向迭代算法 | 第25-26页 |
·前向搜索算法 | 第26-28页 |
·大规模不确定Markov决策过程问题 | 第28-29页 |
·本章小结 | 第29-30页 |
第3章 基于效用预测的球员策略选择 | 第30-43页 |
·问题来源 | 第30-31页 |
·决策系统基本框架 | 第31-34页 |
·机器人足球决策系统 | 第31-33页 |
·博弈论基本概念 | 第33-34页 |
·基于一步行为效用预测的角色实现 | 第34-39页 |
·辐射区域 | 第34-35页 |
·效用函数的设计 | 第35-37页 |
·角色动作选择 | 第37-39页 |
·FIRA 2D平台上的实验和结果 | 第39-42页 |
·FIRA 2D仿真平台简介 | 第39-40页 |
·实验及结果 | 第40-42页 |
·本章小结 | 第42-43页 |
第4章 基于MAXQ分解的决策规划 | 第43-59页 |
·任务层次分解方法 | 第43-48页 |
·基于MAXQ的任务层次分解 | 第43-46页 |
·投影值函数分解 | 第46-47页 |
·MAXQ任务分解方法讨论 | 第47-48页 |
·受限感知和通信的多智能体决策系统框架 | 第48-52页 |
·基于贝叶斯估计的状态更新 | 第48-50页 |
·受限通信的多智能体决策框架 | 第50-52页 |
·实时分层策略求解 | 第52-57页 |
·策略求解方法概述 | 第52-53页 |
·基于与或图的策略表示 | 第53-54页 |
·分层策略求解算法 | 第54-56页 |
·完成函数计算 | 第56-57页 |
·本章小结 | 第57-59页 |
第5章 分层策略求解方法在RoboCup 2D球队决策中的应用 | 第59-75页 |
·RoboCup 2D仿真平台 | 第59-62页 |
·平台简介 | 第59-61页 |
·平台特点 | 第61-62页 |
·智能体决策框架 | 第62-64页 |
·基于MAXQ任务层次分解的决策问题建模 | 第64-71页 |
·问题的基本MDP建模 | 第64-65页 |
·任务层次分解 | 第65-67页 |
·求解过程 | 第67-69页 |
·策略生成器 | 第69-70页 |
·分层值函数计算 | 第70-71页 |
·RoboCup 2D决策实验 | 第71-74页 |
·策略质量与决策深度关系实验 | 第72-73页 |
·任务层次分解算法实验 | 第73-74页 |
·本章小结 | 第74-75页 |
第6章 结论与展望 | 第75-76页 |
·结论 | 第75页 |
·展望 | 第75-76页 |
参考文献 | 第76-81页 |
致谢 | 第81-82页 |
攻读学位期间参加的科研项目和成果 | 第82页 |