摘要 | 第1-5页 |
ABSTRACT | 第5-7页 |
目录 | 第7-10页 |
CONTENTS | 第10-13页 |
第一章 绪论 | 第13-22页 |
·课题来源和意义 | 第13-14页 |
·国内外现状的分析 | 第14-19页 |
·多智能体决策问题的研究方向 | 第14-16页 |
·常用的团队博弈平台及其决策系统的研究方法 | 第16-19页 |
·本课题研究的内容 | 第19-21页 |
·论文的组织 | 第21-22页 |
第二章 Robocode团队的组织方式与坦克机器人体系结构的设计 | 第22-35页 |
·Robocode坦克仿真引擎的介绍 | 第22-30页 |
·Robocode系统组件 | 第23-24页 |
·Robocode坦克机器人的详细分析 | 第24-27页 |
·Robocode的内部架构 | 第27-29页 |
·Robocode决策系统的研究现状 | 第29-30页 |
·全自主型控制方式的Robocode团队设计 | 第30-35页 |
·Robocode团队的组建方法 | 第30-31页 |
·Robocode团队的组织方式 | 第31-33页 |
·Robocode团队坦克机器人的体系结构 | 第33-35页 |
第三章 团队机器人决策系统的控制结构 | 第35-45页 |
·团队对抗游戏决策系统控制结构的设计 | 第35-37页 |
·团队对抗游戏决策系统的任务和要求 | 第35-36页 |
·双层决策模型的总体结构 | 第36-37页 |
·基于双层决策模型的坦克决策系统架构 | 第37-45页 |
·Robocode团队内的通讯协议 | 第38-40页 |
·Robocode团队成员的高层协作策略层 | 第40-41页 |
·Robocode团队成员的交互层基本行为策略 | 第41-42页 |
·Robocode团队成员实现的整体框架 | 第42-45页 |
第四章 团队成员高层协作策略的设计与实现 | 第45-72页 |
·多Agent系统的强化学习算法 | 第45-52页 |
·多Agent强化学习的综述 | 第45-49页 |
·基于博弈论的多Agent强化学习的研究 | 第46-47页 |
·基于随机博弈模型的多Agent的强化学习过程 | 第47-49页 |
·多Agent非协作强化学习的研究 | 第49-50页 |
·多Agent协作强化学习的研究现状 | 第50-52页 |
·基于随机博弈的团队Agent协作强化学习 | 第52-57页 |
·基本思想 | 第52页 |
·相关的概念和假设 | 第52-57页 |
·Robocode团队成员高层协作策略的实现 | 第57-63页 |
·基于团队作战的Robocode战场全局状态空间的表示 | 第57-61页 |
·Robocode团队成员的高层协作策略 | 第61页 |
·Robocode团队Agent协作强化学习算法的增强信号 | 第61-62页 |
·基于神经网络存储的状态空间表示法 | 第62-63页 |
·基于优度评价法的Robocode攻击目标的选取 | 第63-72页 |
·优度评价法简介 | 第63-64页 |
·优度评价法实现的具体步骤 | 第64-66页 |
·优度评价法在Robocode中的具体实现 | 第66-72页 |
·攻击目标选取的相关因素 | 第66-67页 |
·场景的描述 | 第67-68页 |
·攻击目标优度评价步骤 | 第68-72页 |
第五章 交互层基本行为策略的研究与实现 | 第72-92页 |
·交互层基本行为策略的混合控制结构 | 第72-74页 |
·基于Java规则引擎的Robocode交互层基本行为策略 | 第74-79页 |
·规则引擎的选择 | 第74页 |
·基于Jess的Robocode交互层基本行为策略控制结构 | 第74-75页 |
·知识的形式化表示 | 第75-79页 |
·Robocode战场状态空间在Jess事实库中的表示 | 第75-77页 |
·Robocode产生式规则的形式化表示 | 第77-79页 |
·基于机器学习的Robocode交互层基本行为策略 | 第79-92页 |
·基于遗传编程设计的交互层模块控制程序 | 第80-89页 |
·遗传编程的基本思想 | 第80-81页 |
·机器翻译语言TableRex | 第81-84页 |
·基于TableRex的Robocode交互层基本行为策略 | 第84-89页 |
·基于神经网络设计的瞄准角度 | 第89-92页 |
结束语 | 第92-94页 |
参考文献 | 第94-99页 |
攻读硕士学位期间发表的论文 | 第99-101页 |
致谢 | 第101页 |